CN108319144B - 一种机器人轨迹跟踪控制方法及*** - Google Patents

一种机器人轨迹跟踪控制方法及*** Download PDF

Info

Publication number
CN108319144B
CN108319144B CN201810152953.8A CN201810152953A CN108319144B CN 108319144 B CN108319144 B CN 108319144B CN 201810152953 A CN201810152953 A CN 201810152953A CN 108319144 B CN108319144 B CN 108319144B
Authority
CN
China
Prior art keywords
controller
robot system
robot
actual
robust
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810152953.8A
Other languages
English (en)
Other versions
CN108319144A (zh
Inventor
蒋近
钱美容
谢俊达
罗鼎馨
许迪文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN201810152953.8A priority Critical patent/CN108319144B/zh
Publication of CN108319144A publication Critical patent/CN108319144A/zh
Application granted granted Critical
Publication of CN108319144B publication Critical patent/CN108319144B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人轨迹跟踪控制方法和***,所述方法包括以下步骤:步骤S100:建立N自由度刚性机器人***的动力学模型;步骤S200:根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;步骤S300:将机器人***期望的关节角度和关节角速度作为鲁棒自适应迭代学习控制器的参考输入,机器人***实际的关节角度和关节角速度作为控制器的实际输入,实际输入值和参考输入值产生跟踪误差,其通过控制器的迭代计算不断减小。能够对不确定性建模和随机扰动的机器人进行跟踪控制,并提高了跟踪控制的收敛速度和控制精度,以满足对机器人的工作速度和精度的要求。

Description

一种机器人轨迹跟踪控制方法及***
技术领域
本发明涉及机器人控制技术领域,尤其涉及一种机器人轨迹跟踪控制方法及***。
背景技术
随着现代工业的发展,工业机器人的自动化生产是未来自动化装备领域的主流发展方向。工业机器人是一个多自由度的定位装置,作为被控对象,是一个高度耦合、多输入、多输出的强非线性机械装置。同大多数机械***一样,机器人***的动态特性可由其机械参数表示的数学模型表达出来。前提是机器人***的结构已知,以及***参数精确已知。
实际上,受机器人自身参数变化影响或外界环境的干扰,我们很难得到精确的机器人数学模型,通常在建模时受到一些不确定因素的影响,主要包括:
(1)参数不确定性:主要由运动学和动力学方程中物理参数的测量误差引起的,如负载质量未知、连杆长度测量不精确以及连杆质心等物理量未知或部分未知。
(2)非参数不确定性:主要指机器人***未建模动态,包括关节连杆的柔性、机械机构的动/静摩擦力、传感器噪声、执行机构的动态特性等。
(3)未知环境的随机干扰、驱动器饱和、舍入误差、采样时延等因素。
在实际环境中,由于受到这些不确定因素的影响,我们很难得到精确地机器人数学模型,然而忽略这些不确定性因素,则将大大降低***的跟踪精度和控制律的学习速度。为了实现高速,高精度的控制要求,我们需要提出具有抑制各种不确定性,并能快速收敛的控制方法。因而目前常用的控制方法有迭代学习控制方法、自适应控制方法和鲁棒控制方法。但是它们也具有各自的缺点:
1)迭代学习控制方法:传统迭代控制的初始控制值通常是任意选择一个控制量,然后控制律根据误差变化来修正控制量,这导致先前的误差过大,增加了方法的工作量,严重影响了实时性;
2)自适应控制方法:自适应控制可以在理想情况下处理定常参数的不确定性,但不能处理***的非线性不确定性,如未建模的非线性摩擦和随机的外部干扰,从而可能使控制***出现不稳定的情况以至于不能达到机器人精确跟踪的目的;
3)鲁棒控制方法:由于外部环境的随机性和不可避免的建模误差,将面临更多的不确定性,机器人鲁棒控制应该多考虑这些方面的问题。另外对通常建模中忽略的动力学模型的考虑,特别是对执行器动力学模型(如电机动力学等)的考虑,将有助于提高控制精度;
对于实际的机器人***,由动力学,结构或非结构参数以及外部干扰引起的许多不确定性大大降低了控制律的学习速度以及***的跟踪精度。如何在参数和非参数不确定性下处理***,特别是有效处理具有时变效应的非线性不确定状态。这个事实使得控制器依赖于***结构,因此当***具有未知或不确定的结构时,目前的控制方案使用起来非常不方便。
发明内容
本发明的目的是提供一种机器人轨迹跟踪控制方法及***,能够对不确定性建模和随机扰动的机器人进行轨迹跟踪控制,并提高了跟踪控制的收敛速度和控制精度,以满足对机器人的工作速度和精度的要求。
为解决上述技术问题,本发明提供一种机器人轨迹跟踪控制方法,所述方法包括以下步骤:
步骤S100:建立N自由度刚性机器人***的动力学模型;
步骤S200:根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;
步骤S300:将机器人***期望的关节角度和关节角速度作为鲁棒自适应迭代学习控制器的参考输入,机器人***实际的关节角度和关节角速度作为控制器的实际输入,实际输入值和期望输入值产生跟踪误差,其通过控制器的迭代计算不断减小。
优选地,所述步骤S100中的动力学模型可以表示为:
Figure BDA0001580348990000021
其中,t表示时间,k表示迭代次数,qk(t)、
Figure BDA0001580348990000022
Figure BDA0001580348990000023
分别为机器人***实际的关节角度、角速度和角加速度,Dk(qk(t))-D(qk(t))+ΔD(qk(t))为机器人***实际的惯性矩阵,
Figure BDA0001580348990000024
为机器人***实际的离心力和哥氏力矩阵,
Figure BDA0001580348990000025
为机器人***实际的重力摩擦力项,Ta k(t)为机器人***的重复和非重复的扰动,Tk(t)为机器人***的控制输入,D(qk(t))为惯性矩阵,
Figure BDA0001580348990000031
为离心力和哥氏力矩阵,
Figure BDA0001580348990000032
为重力加摩擦力项,ΔD(qk(t))、
Figure BDA0001580348990000033
Figure BDA0001580348990000034
为模型误差。
优选地,步骤S200中根据机器人***的动力学特性将机器人***的动力学模型沿指令轨迹qk(t)
Figure BDA0001580348990000035
线性化表示为:
Figure BDA0001580348990000036
其中,qd(t),
Figure BDA0001580348990000037
Figure BDA0001580348990000038
分别机器人***期望的关节角度、角速度和角加速度记为qd
Figure BDA0001580348990000039
Figure BDA00015803489900000310
ek(t)=qd(t)-qk(t)为关节角度跟踪误差记为ek
Figure BDA00015803489900000311
为关节角速度跟踪误差记为
Figure BDA00015803489900000312
Figure BDA00015803489900000313
为关节角加速度跟踪误差记为
Figure BDA00015803489900000314
D(t)=D(qd),
Figure BDA00015803489900000315
Figure BDA00015803489900000316
Figure BDA00015803489900000317
Figure BDA00015803489900000318
Figure BDA00015803489900000319
Figure BDA00015803489900000320
为展开式的残差项。
优选地,所述步骤S300中鲁棒自适应迭代学习控制器包括PD控制器、前馈控制器和鲁棒控制器。
优选地,所述步骤S300中鲁棒自适应迭代学习控制器具体为:
Figure BDA00015803489900000321
并且具有以下增益切换规则:
Figure BDA0001580348990000041
其中,Δyk(t)=yk+1(t)-yk(t),
Figure BDA0001580348990000042
ψ为训练因子,β(k)>1为增益切换因子,
Figure BDA0001580348990000043
Figure BDA0001580348990000044
为初始PD控制器增益矩阵,
Figure BDA0001580348990000045
Figure BDA0001580348990000046
为第k次迭代的PD控制器增益矩阵,
Figure BDA0001580348990000047
为反馈控制输入,
Figure BDA0001580348990000048
为前馈控制器输入,
Figure BDA0001580348990000049
为鲁棒控制器项,E和λ为常数因子。
优选地,所述步骤S300具体为:
步骤S301:PD控制器根据切换增益规则确定调节第k次迭代的PD控制器增益矩阵
Figure BDA00015803489900000410
Figure BDA00015803489900000411
步骤S302:前馈控制器根据反馈中每一次迭代通过学习规则计算出期望的控制力矩
Figure BDA00015803489900000412
步骤S303:针对外部的随机扰动引入鲁棒控制项
Figure BDA00015803489900000413
步骤S304:将总的控制力矩Tk(t)作为机器人***的控制输入,从而得到机器人***实际的关节角度qk(t)和关节角速度
Figure BDA00015803489900000414
作为鲁棒自适应迭代学习控制器的实际输入;
步骤S305:将机器人***期望的关节角度qd(t)和关节角速度
Figure BDA00015803489900000415
作为鲁棒自适应迭代学习控制器的参考输入;
步骤S306:实际输入值和期望输入值产生跟踪误差ek(t)和
Figure BDA00015803489900000416
步骤S307:通过一次次迭代计算不断减少误差ek(t)和
Figure BDA00015803489900000417
本发明还提供一种机器人轨迹跟踪控制***,所述***包括建模单元、线性化单元、控制器单元,其中:
建模单元,用于建立N自由度刚性机器人***的动力学模型;
线性化单元,用于根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;
控制器单元,用于将机器人***期望的关节角度和关节角速度作为鲁棒自适应迭代学习控制器的参考输入,机器人***实际的关节角度和关节角速度作为控制器的实际输入,实际输入值和期望输入值产生跟踪误差,其通过控制器的迭代计算不断减小。
本发明提供的一种机器人轨迹跟踪控制方法及***,前馈控制器补偿模型不确定性和重复扰动,并且能根据学习规则计算出期望的前馈控制力矩。反馈PD控制器,根据当前迭代误差,加快收敛速度。鲁棒控制器由于迭代学习控制方法不能处理具有非重复性干扰,所以为了弥补随机干扰,设计鲁棒控制器确保鲁棒性。因此,三种类型的控制器配合,反馈可变增益PD控制器保障***稳定性,前馈控制器通过一系列迭代更新产生补偿力矩,具有抑制未知的确定性干扰的能力,同时加上鲁棒控制能有效处理随机干扰的作用;共同确保变化和嘈杂的环境下机器人***的稳定性,灵活性和鲁棒性。能够对不确定性建模和随机扰动的机器人进行轨迹跟踪控制,并提高了跟踪控制的收敛速度和控制精度,以满足对机器人的工作速度和精度的要求。
附图说明
图1为本发明提供的第一种实施例所述机器人轨迹跟踪控制方法的流程图;
图2为本发明提供的鲁棒自适应迭代学习控制器应用于机器人***的控制原理框图;
图3为本发明提供的第二种实施例所述机器人轨迹跟踪控制方法的流程图;
图4为二自由度机械臂示意图的结构示意图;
图5为机器人***两个关节处于不同的迭代次数下期望的位置跟踪和实际轨迹图;
图6为机器人***两个关节处于不同的迭代次数下期望的速度跟踪和实际轨迹图;
图7为机器人***关节1和2在不同控制方法下位置跟踪误差的最大绝对值示意图;
图8为机器人***关节1在不同控制方法下的速度跟踪误差的最大绝对值示意图;
图9为本发明提供的一种机器人轨迹跟踪控制***结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
参见图1和图2,图1为本发明提供的第一种实施例所述机器人轨迹跟踪控制方法的流程图,图2为本发明提供的鲁棒自适应迭代学习控制器应用于机器人***的控制原理框图。
一种机器人轨迹跟踪控制方法,所述方法包括以下步骤:
步骤S100:建立N自由度刚性机器人***的动力学模型;
根据拉格朗日公式,N自由度刚性机器人***的动力学模型可以表示为:
Figure BDA0001580348990000061
其中,t∈[0,tf],表示时间,k∈N,表示迭代次数。qk(t)∈Rn
Figure BDA0001580348990000062
Figure BDA0001580348990000063
分别为机器人***实际的关节角度、角速度和角加速度。D(qk(t))∈Rn×n为惯性矩阵,
Figure BDA0001580348990000064
为离心力和哥氏力矩阵,
Figure BDA0001580348990000065
为重力加摩擦力项,Ta(t)∈Rn为机器人***重复和非重复的扰动,Tk(t)∈Rn为控制输入。
由于动态建模不确定性和随机干扰的影响,式(1)可以重写为
Figure BDA0001580348990000066
其中,Dk(qk(t))=D(qk(t))|ΔD(qk(t))为机器人***实际的惯性矩阵,
Figure BDA0001580348990000067
为机器人***实际的离心力和哥氏力矩阵,
Figure BDA0001580348990000068
为机器人***实际的重力摩擦力项,ΔD(qk(t))、
Figure BDA0001580348990000069
Figure BDA00015803489900000610
为模型误差。其中,D(qk(t)),
Figure BDA00015803489900000611
Figure BDA00015803489900000612
称为***的标称部分,ΔD(qk(t))、
Figure BDA00015803489900000613
Figure BDA00015803489900000614
为***的不确定部分。
步骤S200:根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;
根据机器人***的动力学特性:
特性1(P1):对于Dk(qk(t))∈Rn×n,Dk(qk(t))是对称,正定矩阵;
特性2(P2):
Figure BDA00015803489900000615
为斜对称矩阵并且满足
Figure BDA00015803489900000616
假设1(A1):对于任意的t∈[0,tf],位置和速度的期望轨迹qd(t)和
Figure BDA00015803489900000617
是有界的,并且在任何迭代处是二次可微分的;
假设2(A2):迭代过程满足初始条件满足
Figure BDA00015803489900000618
Figure BDA00015803489900000619
Figure BDA0001580348990000071
则式(2)可表达为
Figure BDA0001580348990000072
将式(4)采用泰勒公式,沿着指令轨迹qk(t),
Figure BDA0001580348990000073
线性化为线性时变***,所述指令轨迹即为给定机器人***的期望轨迹:
Figure BDA0001580348990000074
这里将H0(t)定义为
Figure BDA0001580348990000075
其中
Figure BDA0001580348990000076
为展开式的残差项
将式(2)代入式(4),令
Figure BDA0001580348990000077
其中记
Figure BDA0001580348990000078
对k次迭代,式(4)可以写为
Figure BDA0001580348990000079
其中,qd(t),
Figure BDA00015803489900000710
分别为机器人***期望的关节角度、角速度和角加速度记为qd
Figure BDA00015803489900000711
Figure BDA00015803489900000712
ek(t)=qd(t)-qk(t)为关节角度跟踪误差记为ek
Figure BDA00015803489900000713
为关节角速度度跟踪误差
Figure BDA00015803489900000714
Figure BDA00015803489900000715
为关节角加速度跟踪误差
Figure BDA00015803489900000716
D(t)=D(qd),
Figure BDA00015803489900000717
Figure BDA00015803489900000718
Figure BDA00015803489900000719
Figure BDA0001580348990000081
Figure BDA0001580348990000082
Figure BDA0001580348990000083
为展开式的残差项。
步骤S300:将机器人***期望的关节角度和关节角速度作为鲁棒自适应迭代学习控制器的参考输入,机器人***实际的关节角度和关节角速度作为控制器的实际输入,实际输入值和期望输入值产生跟踪误差,其通过控制器的迭代计算不断减小。
如图2所示,所述鲁棒自适应迭代学习控制器包括PD控制器、前馈控制器和鲁棒控制器。反馈部分为可变增益PD控制器,可以根据当前迭代误差,加快收敛速度。前馈控制器可以通过学习规则,在每个迭代步骤中计算出期望的前馈转矩,用来补偿模型不确定性和重复扰动。为了弥补随机和不重复的干扰,设计鲁棒控制器确保鲁棒性。
针对式(2)描述的机器人***存在建模误差,负载和外部干扰各种不确定性条件下时,鲁棒自适应迭代学习控制器具体可表示为:
Figure BDA0001580348990000084
并且具有以下增益切换规则:
Figure BDA0001580348990000085
其中,ψ为训练因子,是正常数。β(k)>1为增益切换因子,
Figure BDA0001580348990000086
Figure BDA0001580348990000087
为初始PD控制器增益矩阵,
Figure BDA0001580348990000088
Figure BDA0001580348990000089
为第k次迭代的PD控制器增益矩阵,增益自适应律是通过每一次迭代来调整PD控制增益的大小。
Figure BDA00015803489900000810
为反馈控制输入,
Figure BDA00015803489900000811
为前馈控制器输入,它可以通过学习规则计算出来。
Figure BDA00015803489900000812
为鲁棒控制器项。
Figure BDA00015803489900000813
是鲁棒控制部分,其中||dk+1-dk||=Δdk≤E,E为常数因子;sgn为符号函数。
定义:Δyk(t)=yk+1(t)-yk(t),
Figure BDA0001580348990000091
λ为常数因子,λ∈[0,1]。
在学习的初始阶段,这里
Figure BDA0001580348990000092
设置为零;但是,
Figure BDA0001580348990000093
来源于PD控制器的力矩的值是很大的,因为有明显的位置和速度误差。因此,在学习的早期阶段,反馈控制输入力矩
Figure BDA0001580348990000094
要优先于前馈力矩
Figure BDA0001580348990000095
然而随着迭代次数的增加,前馈力矩
Figure BDA0001580348990000096
比反馈力矩
Figure BDA0001580348990000097
占优势。针对随机扰动,用鲁棒项
Figure BDA0001580348990000098
保持***鲁棒性。
将鲁棒自适应迭代学习控制器应用于机器人***对机器人进行轨迹跟踪控制。前馈控制器补偿模型不确定性和重复扰动,并且能根据学习规则计算出期望的前馈控制力矩。反馈PD控制器,根据当前迭代误差,加快收敛速度。鲁棒控制器由于迭代学习控制方法不能处理具有非重复性干扰,所以为了弥补随机干扰,设计鲁棒控制器确保鲁棒性。因此,三种类型的控制器配合,反馈可变增益PD控制器保障***稳定性,前馈控制器通过一系列迭代更新产生补偿力矩,具有抑制未知的确定性干扰的能力,同时加上鲁棒控制能有效处理随机干扰的作用;共同确保变化和嘈杂的环境下机器人***的稳定性,灵活性和鲁棒性。能够对不确定性建模和随机扰动的机器人进行轨迹跟踪控制,并提高了跟踪控制的收敛速度和控制精度,以满足对机器人的工作速度和精度的要求。
所述前馈控制其的学习规则为:
Figure BDA0001580348990000099
具体为:
在学习的初始阶段,
Figure BDA00015803489900000910
被设置为零。因此,对于第k次迭代,将输入(6)应用于等式(5),我们得到一个误差方程
Figure BDA00015803489900000911
令H1(t)=H(t)-Esgn((Δyk-1)T)+dk(t) (9)
那么可以直接获得误差方程的第k次迭代
Figure BDA00015803489900000912
只要
Figure BDA00015803489900000913
驱动的误差动力学是有界的,随着反馈增益的增加,误差有界且可以任意小。因为执行器转矩有限使反馈增益不能无限大。一般来说,线性反馈控制并不能很好的胜任轨迹追踪,特别是在非线性和有模型误差的***下时。为了使用前馈控制
Figure BDA0001580348990000101
沿着反馈PD控制达到当k→∞的时候消除误差
Figure BDA0001580348990000102
伴随着合理的前馈增益,追踪误差在迭代过程中可以收敛到零。首先,我们选择适当大小的正定矩阵
Figure BDA0001580348990000103
Figure BDA0001580348990000104
使误差动力学等式(10)沿着期望轨迹是稳定的。其次,我们更新学习规则,使
Figure BDA00015803489900001024
趋近于H1(t)当t∈[0.tf]。
为了推导出一个学习规则使其更新
Figure BDA0001580348990000105
并且使
Figure BDA0001580348990000106
收敛于未知的量H1(t),并且证明它的收敛性。在推导学习规则中,我们考虑t∈[0.tf]的以下指数:
Figure BDA0001580348990000107
通过利用梯度下降规则,我们获得以下等式
Figure BDA0001580348990000108
将式(12)的两边减去H1(t),我们得到
Figure BDA0001580348990000109
因此,为了保证偏置输入误差相对于迭代次数收敛,ψ应该在0<ψ<2的范围内。相反,可用
Figure BDA00015803489900001010
替换未知项
Figure BDA00015803489900001011
即可得到学习规则:
Figure BDA00015803489900001012
注意到等式(10),如果
Figure BDA00015803489900001013
Figure BDA00015803489900001014
有足够大的值,则
Figure BDA00015803489900001015
Figure BDA00015803489900001016
大小基本上一样。大致来说,学习规则可以被认为是用于未知期望输入转矩H1(t)的搜索方法,其中来自PD控制器的
Figure BDA00015803489900001017
用于更新前馈控制器的
Figure BDA00015803489900001018
在学习的初始阶段,这里
Figure BDA00015803489900001019
设置为零。但是,
Figure BDA00015803489900001020
来源于PD控制器的力矩的值是很大的,因为此时有明显的位置和速度误差。因此,在学习的早期阶段,反馈转矩
Figure BDA00015803489900001021
要优先于前馈力矩
Figure BDA00015803489900001022
然而随着迭代次数的增加,前馈力矩
Figure BDA00015803489900001023
处于主导位置。所述自适应迭代学习控制器的收敛性可基于李亚普诺夫稳定性定理证得。
对随机外部扰动和建模不确定性条件下的机器人***为被控对象的非线性***进行轨迹跟踪控制,通过融合PD控制器、前馈控制器和鲁棒控制器的优点设计了鲁棒自适应迭代学习控制器。基于Lyapunov稳定性定理证明了该控制器的稳定性和收敛性。
参见图3至图7,图3为本发明提供的第二种实施例所述机器人轨迹跟踪控制方法的流程图,图4为二自由度机械臂示意图的结构示意图,图5为机器人***两个关节处于不同的迭代次数下期望的位置跟踪和实际轨迹图,图6为机器人***两个关节处于不同的迭代次数下期望的速度跟踪和实际轨迹图,图7为机器人***关节1和2在不同控制方法下位置跟踪误差的最大绝对值示意图,图8为机器人***关节1在不同控制方法下的速度跟踪误差的最大绝对值示意图。
一种机器人轨迹跟踪控制方法,所述方法包括以下步骤:
步骤S100:建立N自由度刚性机器人***的动力学模型;
步骤S200:根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;
步骤S301:PD控制器根据切换增益规则确定调节第k次迭代的PD控制器增益矩阵
Figure BDA0001580348990000111
Figure BDA0001580348990000112
根据切换增益规则按每一次迭代来调整PD控制器增益的大小,确定第k次迭代的控制增益矩阵
Figure BDA0001580348990000113
Figure BDA0001580348990000114
步骤S302:前馈控制器根据反馈中每一次迭代通过学习规则计算出期望的控制力矩
Figure BDA0001580348990000115
步骤S303:针对外部的随机扰动引入鲁棒控制项
Figure BDA0001580348990000116
步骤S304:将总的控制力矩Tk(t)作为机器人***的控制输入,从而得到机器人***实际的关节角度qk(t)和关节角速度
Figure BDA0001580348990000117
作为鲁棒自适应迭代学习控制器的实际输入;
步骤S305:将机器人***期望的关节角度qd(t)和关节角速度
Figure BDA0001580348990000118
作为鲁棒自适应迭代学习控制器的参考输入;
步骤S306:实际输入值和期望输入值产生跟踪误差ek(t)和
Figure BDA0001580348990000119
步骤S307:通过一次次迭代计算不断减小误差ek(t)和
Figure BDA00015803489900001110
建立N自由度刚性机器人***的动力学模型,根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化,产生期望轨迹,然后基于逆动力学将机器人***期望的关节角度qd(t)和关节角速度
Figure BDA00015803489900001111
作为鲁棒自适应迭代学习控制器的参考输入。机器人***实际的关节角度qk(t)和关节角速度
Figure BDA00015803489900001112
作为鲁棒自适应迭代学习控制器的实际输入,实际输入值和期望输入值产生跟踪误差ek(t)和
Figure BDA0001580348990000121
然后控制器不断地减少误差从而提高***精度。同时,PD控制器通过PD学习规则调节控制增益
Figure BDA0001580348990000122
Figure BDA0001580348990000123
并且使整个***在跟踪误差界限内稳定。前馈控制器根据PD控制器反馈的每一次迭代误差通过学习规则计算出期望的控制力矩
Figure BDA0001580348990000124
引入鲁棒控制项
Figure BDA0001580348990000125
针对外部的随机扰动,从而保证不确定控制***的鲁棒性。将总的控制力矩Tk(t)作为机器人***的控制输入,从而得到机器人***实际的关节角度qk(t)和关节角速度
Figure BDA0001580348990000126
作为鲁棒自适应迭代学习控制器的实际输入,与期望值qd(t)和
Figure BDA0001580348990000127
一起产生跟踪误差ek(t)和
Figure BDA0001580348990000128
不断进行迭代,以到达提高控制精度的目的。
本实施例提供的机器人轨迹跟踪控制方法在于结合了易于设计的PD控制器,用于保证***状态的稳定性。其学习前馈部分,可以通过学习规则,在每个迭代步骤中计算出期望的前馈转矩,具有有效处理模型不确定性和重复性干扰的自适应迭代控制的优势,也结合了鲁棒控制,可以确保***在外部随机干扰下的鲁棒性。鲁棒自适应迭代学习控制器的反馈部分可以很灵活的调节控制增益,同时前馈控制通过每一步的迭代反馈误差计算驱动力矩,通过一个序列的迭代更新产生补偿力矩,适应于可变参数未知***以及可有效补偿未知随机干扰。
机器人轨迹跟踪控制方法在减少跟踪误差和加速收敛速度方面具有明显优点。一方面,对于所提出的控制方法,在初始迭代的时候,关节的最大位置误差还是比较明显的,但是在第三次迭代时,关节1的位置误差减小了99.28%,在第九次迭代的时候,误差减小了99.77%。相似的,关节2在第三次迭代时,误差减小了96.36%,在第九次迭代的时候,误差最终减小了99.95%,所提出的控制方法在机器人控制精度方面得到了很大提高。并且提出的控制方法在第2次迭代的时候追踪轨迹就可以很好的接近于期望轨迹了收敛速度得到了提高.追踪误差随着迭代次数的增加单调减小,而且与其他迭代次数相比,误差在第一次迭代的时候减小的很急剧,稳定性和追踪效果有了很大提高。综上,所提出的控制方法的追踪精度的提高是相当可观的。
另一方面,在跟踪速度方面具有相似的变化趋势,在初始迭代的时候,具有最大追踪速度误差还是明显较大的,但在三次迭代后,速度误差明显减少;在九次迭代之后,速度跟踪误差进一步趋近于零。速度跟踪效果随着迭代次数的增加逐渐提高。所提出鲁棒自适应迭代学习控制方法不仅满足***的鲁棒性,而且在未知环境下对稳定跟踪具有优异的性能。其独特的特点是结构简单,易于实现,快速收敛。
为了说明本发明提供的第二种实施例所述机器人轨迹跟踪控制方法的有效性,结合仿真图加以验证。本发明提供的第二种实施例所述机器人轨迹跟踪控制方法针对式(2)描述的二自由度工业机械臂,***参数设定如下,
取惯性矩阵
Figure BDA0001580348990000131
给定
d11=i1+i2+2m2r2l1cosq2,d12=i2+m2r2l1cosq2,d21=i2+m2r2l1cosq2和d22=i2
离心力和哥氏力
Figure BDA0001580348990000132
给定
Figure BDA0001580348990000133
和c22=0
重力加摩檫力项
Figure BDA0001580348990000134
给定
g11=(m1r1+m2l1)gcosq1+m2r2gcos(q1+q2),g22=m2r2gcos(q1+q2)。
如图4所示,机械臂参数为:m1为连杆1的质量,m2为连杆2的质量,l1,l2分别为两连杆的长度,r1,r2分别代表两个连杆的重心位置距各个连接轴的距离;i1,i2是连杆惯量,q1、q2表示关节1和关节2的角度;
Figure BDA0001580348990000135
表示关节1和关节2的角速度。
m1=10kg,m2=5kg,l1=1m,l2=0.5m,
r1=0.5m,r2=0.5m,i1=0.83+m2r1 2+m2l1 2,i2=0.3+m2r2 2.。
期望轨迹给定为:
Figure BDA0001580348990000136
对于t∈(0,3)
模型误差如下:
Figure BDA0001580348990000137
随即外部扰动为:
Figure BDA0001580348990000138
其中,
Figure BDA0001580348990000141
其中rands(1)表取随机数在范围[-1,1]中。
此外,在该模型中还考虑摩擦力,并给出:
Figure BDA0001580348990000142
sign为符号函数。
给定机械臂初始位置:
Figure BDA0001580348990000143
控制增益取值:
Figure BDA0001580348990000144
控制增益根据以下切换规则进行迭代:
Figure BDA0001580348990000145
图5(a)为机器人***两个关节在初始迭代下期望的位置跟踪和实际轨迹图,图5(b)为机器人***两个关节在第三次迭代时期望的位置跟踪和实际轨迹图,图5(c)为机器人***两个关节在第九次迭代时期望的位置跟踪和实际轨迹图。图6(a)为机器人***两个关节在初始迭代下期望的速度跟踪和实际轨迹图,图6(b)为机器人***两个关节在第三次迭代时期望的速度跟踪和实际轨迹图,图6(c)为机器人***两个关节在第九次迭代时期望的速度跟踪和实际轨迹图。
如图5(a)和图6(a),当初始迭代时,鲁棒自适应迭代学习控制方法只是作为具有微小增益的PD控制实现,因为其有用的前馈信息还没有进入学习迭代状态中。以至于跟踪性能是不理想的,对于两个关节的追踪误差非常的大。然而,如图5(b)和图6(b),在第三次迭代,学习前馈控制器已经发挥作用,从而大大提高了跟踪性能,可以观察到实际轨迹已经符合期望轨迹。如图5(c)和图6(c),在第九次迭代,性能毋庸置疑已经达到非常好。图5和图6可以看出,随着迭代数量的增加跟踪性能逐步提高。
为了提供本方法的充分性能评估,将现有控制方法与本发明提供的第二种实施例所述机器人轨迹跟踪控制方法进行比较,图7为机器人***关节1和2在不同控制方法下位置跟踪误差的最大绝对值示意图。其中图(a)表示传统的PD控制器;图(b)表示Tae-yongKuc,Kwanghee Nam,Jin S.Lee提出的一种迭代学习方案(简称ILC);图(c)表示P.R.Ouyang,W.J.Zhang,Madan M.Gupta提出的自适应切换学习PD控制(AdaptiveSwitching Learning PD Control,简称ASL-PD)。可观察到所提出的方法的最大位置追踪误差是最小的,以及它的跟踪轨迹在一次次的迭代进行中效果逐渐得以提高。从图7(d)中可以得出结论:本发明提供的第二种实施例所述机器人轨迹跟踪控制方法在第2次迭代的时候追踪轨迹就可以很好的接近于期望轨迹了.追踪误差随着迭代次数的增加单调减小。而且与其他迭代次数相比,误差在第一次迭代的时候减小得很急剧。稳定性和追踪效果有了很大改善。详细的结果见表1所示。
表1随迭代次数变化的位置跟踪误差表
Figure BDA0001580348990000151
表1表示本发明提供的第二种实施例所述机器人轨迹跟踪控制方法和其他三种方法从初始迭代到第九次迭代的轨迹追踪误差变化情况。通过比较,本发明提供的第二种实施例所述机器人轨迹跟踪控制方法作用时,误差表现出更进一步的减小。并且第九次迭代时减小到0.0005rad,此时也就是说它大约是传统PD控制最大误差的1/13和ILC的最大误差的1/20。综上,所提出控制方法的追踪精度的提高是相当可观的。
如图8所示,本发明提供的第二种实施例所述机器人轨迹跟踪控制方法与不同控制方法在迭代过程中速度跟踪误差的最大绝对值的比较结果。从实验中可以清楚地看出,与其他方法相比,本发明提供的第二种实施例所述机器人轨迹跟踪控制方法的最大速度跟踪误差是最小的。
仿真结果证明了所提出的方法可以在建模误差和随机外部干扰的影响下改善跟踪性能。一方面,可以看出,所提出的控制方法明显减小了位置跟踪误差以及速度跟踪误差。另一方面,结果表明,与其他三个控制器相比,所提出的方法可以在存在模型不确定性和非重复性外部干扰的情况下提供更好的性能,验证了所提出的方法的有效性和鲁棒性,仿真结果进一步验证了理论结果。
参见图2和图9,图2为本发明提供的一种机器人轨迹跟踪控制***结构框图,图9为本发明提供的鲁棒自适应迭代学习控制器应用于机器人***的控制原理框图。
一种机器人轨迹跟踪控制***,所述***包括建模单元1、线性化单元2、控制器单元3,其中:
建模单元1,用于建立N自由度刚性机器人***的动力学模型。
根据拉格朗日公式,N自由度刚性机器人***的动力学模型可以表示为:
Figure BDA0001580348990000161
其中,t∈[0,tf],表示时间,k∈N,表示迭代次数。qk(t)∈Rn
Figure BDA0001580348990000162
Figure BDA0001580348990000163
分别为机器人***实际的关节角度、角速度和角加速度。D(qk(t))∈Rn×n为惯性矩阵,
Figure BDA0001580348990000164
为离心力和哥氏力矩阵,
Figure BDA0001580348990000165
为重力加摩擦力项,Ta(t)∈Rn为表示机器人***重复和非重复的扰动,Tk(t)∈Rn为控制输入。
由于动态建模不确定性和随机干扰的影响,式(1)可以重写为
Figure BDA0001580348990000166
其中,Dk(qk(t))=D(qk(t))+ΔD(qk(t))为机器人***实际的惯性矩阵,
Figure BDA0001580348990000167
为机器人***实际的离心力和哥氏力矩阵,
Figure BDA0001580348990000168
为机器人***实际的重力摩擦力项,ΔD(qk(t))、
Figure BDA0001580348990000169
Figure BDA00015803489900001610
为机器人***模型误差。其中,D(qk(t)),
Figure BDA00015803489900001611
Figure BDA00015803489900001612
称为***的标称部分,ΔD(qk(t))、
Figure BDA00015803489900001613
Figure BDA00015803489900001614
为***的不确定部分。
线性化单元2,用于根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;
根据机器人***的动力学特性:
特性1(P1):对于Dk(qk(t))∈Rn×n,Dk(qk(t))是对称,正定矩阵;
特性2(P2):qk(t)∈Rn
Figure BDA0001580348990000171
XT(Dk(qk(t))-2Ck(qk(t),
Figure BDA0001580348990000172
为斜对称矩阵并且满足
Figure BDA0001580348990000173
假设1(A1):对于任意的t∈[0,tf],位置和速度的期望轨迹qd(t)和
Figure BDA0001580348990000174
是有界的,并且在任何迭代处是二次可微分的;
假设2(A2):迭代过程满足初始条件满足
Figure BDA0001580348990000175
Figure BDA0001580348990000176
Figure BDA0001580348990000177
则式(2)可表达为
Figure BDA0001580348990000178
将式(4)采用泰勒公式,沿着指令轨迹qk(t),
Figure BDA0001580348990000179
线性化为线性时变***,所述指令轨迹即为给定机器人***的期望轨迹:
Figure BDA00015803489900001710
这里将H0(t)定义为
Figure BDA00015803489900001711
其中
Figure BDA00015803489900001712
为展开式的残差项
将式(2)代入式(4),令
Figure BDA00015803489900001713
Figure BDA00015803489900001714
对k次迭代,式(4)可以写为
Figure BDA00015803489900001715
其中,qd(T),
Figure BDA00015803489900001716
Figure BDA00015803489900001717
分别为机器人***期望的关节角度、角速度和角加速度记为qd
Figure BDA0001580348990000181
Figure BDA0001580348990000182
ek(t)=qd(T)-qk(t)为关节角度跟踪误差记为ek
Figure BDA0001580348990000183
为关节角速度跟踪误差记为
Figure BDA0001580348990000184
Figure BDA0001580348990000185
为关节角加速度跟踪误差记为
Figure BDA0001580348990000186
D(t)=D(qd),
Figure BDA0001580348990000187
Figure BDA0001580348990000188
Figure BDA0001580348990000189
Figure BDA00015803489900001810
Figure BDA00015803489900001811
Figure BDA00015803489900001812
为展开式的残差项。
控制器单元3,用于将机器人***期望的关节角度和关节角速度作为鲁棒自适应迭代学习控制器的参考输入,机器人***实际的关节角度和关节角速度作为控制器的实际输入,实际输入值和期望输入值产生跟踪误差,其通过控制器的迭代计算不断减少。
如图2所示,所述鲁棒自适应迭代学习控制器包括PD控制器、前馈控制器和鲁棒控制器。反馈部分为可变增益PD控制器,可以根据当前迭代误差,加快收敛速度。前馈控制器可以通过学习规则,在每个迭代步骤中计算出期望的前馈转矩,用来补偿模型不确定性和重复扰动。为了弥补随机和不重复的干扰,设计鲁棒控制器确保鲁棒性。
针对式(2)描述的机器人***存在建模误差,负载和外部干扰各种不确定性条件下时,鲁棒自适应迭代学习控制器具体可表示为:
Figure BDA00015803489900001813
并且具有以下增益切换规则:
Figure BDA0001580348990000191
其中,ψ为训练因子,是正常数。β(k)>1为增益切换因子,
Figure BDA0001580348990000192
Figure BDA0001580348990000193
为初始PD控制器增益矩阵,
Figure BDA0001580348990000194
Figure BDA0001580348990000195
为第k次迭代的PD控制器增益矩阵,增益自适应律是通过每一次迭代来调整PD控制增益的大小。
Figure BDA0001580348990000196
为反馈控制输入,
Figure BDA0001580348990000197
为前馈控制器输入,它可以通过学习规则计算出来。
Figure BDA0001580348990000198
为鲁棒控制器项。
Figure BDA0001580348990000199
是鲁棒控制部分,其中||dk+1-dk||=Δdk≤E,E为常数;sgn为符号函数。
定义Δyk(t)=yk+1(t)-yk(t),
Figure BDA00015803489900001910
λ为常数因子,λ∈[0,1]。
在学习的初始阶段,这里
Figure BDA00015803489900001911
设置为零;但是,
Figure BDA00015803489900001912
来源于PD控制器的力矩的值是很大的,因为有明显的位置和速度误差。因此,在学习的早期阶段,反馈控制输入力矩
Figure BDA00015803489900001913
要优先于前馈力矩
Figure BDA00015803489900001914
然而随着迭代次数的增加,前馈力矩
Figure BDA00015803489900001915
比反馈力矩
Figure BDA00015803489900001916
占优势。针对随机扰动,用鲁棒项
Figure BDA00015803489900001917
保持***鲁棒性。
将鲁棒自适应迭代学习控制器应用于机器人***对机器人进行轨迹跟踪控制。前馈控制器补偿模型不确定性和重复扰动,并且能根据学习规则计算出期望的前馈控制力矩。反馈PD控制器,根据当前迭代误差,加快收敛速度。鲁棒控制器由于迭代学习控制方法不能处理具有非重复性干扰,所以为了弥补随机干扰,设计鲁棒控制器确保鲁棒性。因此,三种类型的控制器配合,反馈可变增益PD控制器保障***稳定性,前馈控制器通过一系列迭代更新产生补偿力矩,具有抑制未知的确定性干扰的能力,同时加上鲁棒控制能有效处理随机干扰的作用;共同确保变化和嘈杂的环境下机器人***的稳定性,灵活性和鲁棒性。能够对不确定性建模和随机扰动的机器人进行轨迹跟踪控制,并提高了跟踪控制的收敛速度和控制精度,以满足对机器人的工作速度和精度的要求。
所述前馈控制其的学习规则为:
Figure BDA00015803489900001918
具体为:
在学习的初始阶段,
Figure BDA0001580348990000201
被设置为零。因此,对于第k次迭代,将输入(6)应用于等式(5),我们得到一个误差方程
Figure BDA0001580348990000202
令H1(t)=H(t)-Esgn((Δyk-1)T)+dk(t) (9)
那么可以直接获得误差方程的第k次迭代
Figure BDA0001580348990000203
只要
Figure BDA0001580348990000204
驱动的误差动力学是有界的,随着反馈增益的增加,误差有界且可以任意小。因为执行器转矩有限使反馈增益不能无限大。一般来说,线性反馈控制并不能很好的胜任轨迹追踪,特别是在非线性和有模型误差的***下时。为了使用前馈控制
Figure BDA0001580348990000205
沿着反馈PD控制达到当k→∞的时候消除误差
Figure BDA0001580348990000206
伴随着合理的前馈增益,追踪误差在迭代过程中可以收敛到零。首先,我们选择适当大小的正定矩阵
Figure BDA0001580348990000207
Figure BDA0001580348990000208
使误差动力学等式(10)沿着期望轨迹是稳定的。其次,我们更新学习规则,使
Figure BDA0001580348990000209
趋近于H1(t)当t∈[0.tf]。
为了推导出一个学习规则使其更新
Figure BDA00015803489900002010
并且使
Figure BDA00015803489900002011
收敛于未知的量H1(t),并且证明它的收敛性。在推导学习规则中,我们考虑t∈[0.tf]的以下指数:
Figure BDA00015803489900002012
通过利用梯度下降规则,我们获得以下等式
Figure BDA00015803489900002013
将式(12)的两边减去H1(t),我们得到
Figure BDA00015803489900002014
因此,为了保证偏置输入误差相对于迭代次数收敛,ψ应该在0<ψ<2的范围内。相反,可用
Figure BDA0001580348990000211
替换未知项
Figure BDA0001580348990000212
即可得到学习规则:
Figure BDA0001580348990000213
注意到等式(10),如果
Figure BDA0001580348990000214
Figure BDA0001580348990000215
有足够大的值,则
Figure BDA0001580348990000216
Figure BDA0001580348990000217
大小基本上一样。大致来说,学习规则可以被认为是用于未知期望输入转矩H1(t)的搜索方法,其中来自PD控制器的
Figure BDA0001580348990000218
用于更新前馈控制器的
Figure BDA0001580348990000219
在学习的初始阶段,这里
Figure BDA00015803489900002110
设置为零。但是,
Figure BDA00015803489900002111
来源于PD控制器的力矩的值是很大的,因为此时有明显的位置和速度误差。因此,在学习的早期阶段,反馈转矩
Figure BDA00015803489900002112
要优先于前馈力矩
Figure BDA00015803489900002113
然而随着迭代次数的增加,前馈力矩
Figure BDA00015803489900002114
处于主导位置。所述鲁棒自适应迭代学习控制器的收敛性可基于李亚普诺夫稳定性定理证得。
以上对本发明所提供的一种机器人轨迹跟踪控制方法及***进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (4)

1.一种机器人轨迹跟踪控制方法,其特征在于,所述方法包括以下步骤:
步骤S100:建立N自由度刚性机器人***的动力学模型,所述动力学模型可以表示为:
Figure FDA0003048704100000011
其中,t表示时间,k表示迭代次数,qk(t)、
Figure FDA0003048704100000012
Figure FDA0003048704100000013
分别为机器人***实际的关节角度、角速度和角加速度,Dk(qk(t))=D(qk(t))+ΔD(qk(t))为机器人***实际的惯性矩阵,
Figure FDA0003048704100000014
为机器人***实际的离心力和哥氏力矩阵,
Figure FDA0003048704100000015
为机器人***实际的重力摩擦力项,Ta k(t)为机器人***的重复和非重复的扰动,Tk(t)为机器人***的控制输入,D(qk(t))为惯性矩阵,
Figure FDA0003048704100000016
为离心力和哥氏力矩阵,
Figure FDA0003048704100000017
为重力加摩擦力项,ΔD(qk(t))、
Figure FDA0003048704100000018
Figure FDA0003048704100000019
为模型误差;
步骤S200:根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;
步骤S300:将机器人***期望的关节角度和关节角速度作为鲁棒自适应迭代学习控制器的参考输入,机器人***实际的关节角度和关节角速度作为所述鲁棒自适应迭代学习控制器的实际输入,实际输入值和参考输入值产生跟踪误差,其通过所述鲁棒自适应迭代学习控制器的迭代计算不断减小;其中,所述鲁棒自适应迭代学习控制器包括可变增益PD控制器、前馈控制器和鲁棒控制器,所述可变增益PD控制器,可以根据当前迭代误差,加快收敛速度,所述前馈控制器可以通过学习规则,在每个迭代步骤中计算出期望的前馈转矩,用来补偿模型不确定性和重复扰动,所述鲁棒控制器用于确保鲁棒性,用于弥补随机和不重复的干扰;
所述步骤S300中鲁棒自适应迭代学习控制器具体为:
Figure FDA00030487041000000110
并且具有以下增益切换规则:
Figure FDA0003048704100000021
其中,Δyk(t)=yk+1(t)-yk(t),
Figure FDA0003048704100000022
ψ为训练因子,β(k)>1为增益切换因子,
Figure FDA0003048704100000023
Figure FDA0003048704100000024
为初始可变增益PD控制器增益矩阵,
Figure FDA0003048704100000025
Figure FDA0003048704100000026
为第k次迭代的可变增益PD控制器增益矩阵,
Figure FDA0003048704100000027
为反馈控制输入,
Figure FDA0003048704100000028
为前馈控制器输入,
Figure FDA0003048704100000029
为鲁棒控制器项,E和λ为常数因子。
2.根据权利要求1所述的机器人轨迹跟踪控制方法,其特征在于,步骤S200中根据机器人***的动力学特性将机器人***的动力学模型沿期望轨迹
Figure FDA00030487041000000210
线性化表示为:
Figure FDA00030487041000000211
其中,qd(t),
Figure FDA00030487041000000212
Figure FDA00030487041000000213
分别为机器人***期望的关节角度、角速度和角加速度记为qd
Figure FDA00030487041000000214
Figure FDA00030487041000000215
ek(t)=qd(t)-qk(t)为关节角度跟踪误差记为ek
Figure FDA00030487041000000216
为关节角速度跟踪误差记为
Figure FDA00030487041000000217
Figure FDA00030487041000000218
为关节角加速度跟踪误差记为
Figure FDA00030487041000000219
D(t)=D(qd),
Figure FDA00030487041000000220
Figure FDA00030487041000000221
Figure FDA00030487041000000222
Figure FDA00030487041000000223
Figure FDA00030487041000000224
Figure FDA00030487041000000225
为展开式的残差项。
3.根据权利要求2所述的机器人轨迹跟踪控制方法,其特征在于,所述步骤S300具体为:
步骤S301:可变增益PD控制器根据切换增益规则确定调节第k次迭代的可变增益PD控制器增益矩阵
Figure FDA0003048704100000031
Figure FDA0003048704100000032
步骤S302:前馈控制器根据反馈中每一次迭代通过学习规则计算出期望的控制力矩
Figure FDA0003048704100000033
步骤S303:针对外部的随机扰动引入鲁棒控制项
Figure FDA0003048704100000034
步骤S304:将总的控制力矩Tk(t)作为机器人***的控制输入,从而得到机器人***实际的关节角度qk(t)和关节角速度
Figure FDA0003048704100000035
作为鲁棒自适应迭代学习控制器的实际输入;
步骤S305:将机器人***期望的关节角度qd(t)和关节角速度
Figure FDA0003048704100000036
作为鲁棒自适应迭代学习控制器的参考输入;
步骤S306:实际输入值和期望输入值产生跟踪误差ek(t)和
Figure FDA0003048704100000037
步骤S307:通过一次次迭代计算不断减少误差ek(t)和
Figure FDA0003048704100000038
4.一种机器人轨迹跟踪控制***,其特征在于,所述***包括建模单元、线性化单元、控制器单元,其中:
建模单元,用于建立N自由度刚性机器人***的动力学模型,所述动力学模型可以表示为:
Figure FDA0003048704100000039
其中,t表示时间,k表示迭代次数,qk(t)、
Figure FDA00030487041000000310
Figure FDA00030487041000000311
分别为机器人***实际的关节角度、角速度和角加速度,Dk(qk(t))-D(qk(t))+ΔD(qk(t))为机器人***实际的惯性矩阵,
Figure FDA00030487041000000312
为机器人***实际的离心力和哥氏力矩阵,
Figure FDA00030487041000000313
为机器人***实际的重力摩擦力项,Ta k(t)为机器人***的重复和非重复的扰动,Tk(t)为机器人***的控制输入,D(qk(t))为惯性矩阵,
Figure FDA00030487041000000314
为离心力和哥氏力矩阵,
Figure FDA00030487041000000315
为重力加摩擦力项,ΔD(qk(t))、
Figure FDA00030487041000000316
Figure FDA00030487041000000317
为模型误差;
线性化单元,用于根据机器人***的动力学特性,将机器人***的动力学模型沿期望轨迹线性化;
控制器单元,用于将机器人***期望的关节角度和关节角速度作为鲁棒自适应迭代学习控制器的参考输入,机器人***实际的关节角度和关节角速度作为所述鲁棒自适应迭代学习控制器的实际输入,实际输入值和期望输入值产生跟踪误差,其通过所述鲁棒自适应迭代学习控制器的迭代计算不断减少;其中,所述鲁棒自适应迭代学习控制器包括可变增益PD控制器、前馈控制器和鲁棒控制器,所述可变增益PD控制器,可以根据当前迭代误差,加快收敛速度,所述前馈控制器可以通过学习规则,在每个迭代步骤中计算出期望的前馈转矩,用来补偿模型不确定性和重复扰动,所述鲁棒控制器用于确保鲁棒性,用于弥补随机和不重复的干扰;
所述控制器单元中鲁棒自适应迭代学习控制器具体为:
Figure FDA0003048704100000041
并且具有以下增益切换规则:
Figure FDA0003048704100000042
其中,Δyk(t)=yk+1(t)-yk(t),
Figure FDA0003048704100000043
ψ为训练因子,β(k)>1为增益切换因子,
Figure FDA0003048704100000044
Figure FDA0003048704100000045
初始可变增益PD控制器增益矩阵,
Figure FDA0003048704100000046
Figure FDA0003048704100000047
为第k次迭代的可变增益PD控制器增益矩阵,
Figure FDA0003048704100000048
为反馈控制输入,
Figure FDA0003048704100000049
为前馈控制器输入,
Figure FDA00030487041000000410
为鲁棒控制器项,E和λ为常数因子。
CN201810152953.8A 2018-02-21 2018-02-21 一种机器人轨迹跟踪控制方法及*** Active CN108319144B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810152953.8A CN108319144B (zh) 2018-02-21 2018-02-21 一种机器人轨迹跟踪控制方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810152953.8A CN108319144B (zh) 2018-02-21 2018-02-21 一种机器人轨迹跟踪控制方法及***

Publications (2)

Publication Number Publication Date
CN108319144A CN108319144A (zh) 2018-07-24
CN108319144B true CN108319144B (zh) 2021-07-09

Family

ID=62900271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810152953.8A Active CN108319144B (zh) 2018-02-21 2018-02-21 一种机器人轨迹跟踪控制方法及***

Country Status (1)

Country Link
CN (1) CN108319144B (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108828960B (zh) * 2018-09-11 2020-08-25 武汉理工大学 一种气动肌肉无模型高阶迭代学习控制方法
CN109223444B (zh) * 2018-10-23 2021-03-26 上海电气集团股份有限公司 康复机器人及其人机协同交互力控制方法
CN109551479B (zh) * 2018-11-30 2021-09-14 长春工业大学 基于参数优化可重构模块化柔性机械臂轨迹跟踪控制方法
CN109669348B (zh) * 2018-12-13 2020-08-18 华中科技大学 基于迭代反馈调整的工业机器人及其轨迹跟踪控制方法
CN110007594B (zh) * 2019-03-19 2022-03-18 江苏大学 一种汽车电泳涂装输送用混联机器人的自适应鲁棒滑模控制方法
CN110053049B (zh) * 2019-04-22 2021-06-29 珠海格力智能装备有限公司 机器人轨迹精度的确定方法及装置、工业机器人
CN110221538B (zh) * 2019-04-26 2021-10-01 华南理工大学 一种结合迭代学习的时间最优轨迹规划控制器及方法
CN110244714B (zh) * 2019-05-22 2022-06-24 南京理工大学 基于滑模控制的机器人单腿摆动相双闭环控制方法
CN110187637B (zh) * 2019-06-03 2021-12-10 重庆大学 在控制方向和期望轨迹不确定下的机器人***控制方法
CN110253576B (zh) * 2019-06-17 2022-06-24 东北大学 一种巡检机器人关节运动控制方法及巡检机器人
CN110154036B (zh) * 2019-06-24 2020-10-13 山东大学 视觉动态***下的室内服务机器人控制器设计方法及***
CN110347162A (zh) * 2019-07-29 2019-10-18 南京市晨枭软件技术有限公司 一种工业机器人路径自动修正的方法及***
CN110426958A (zh) * 2019-08-06 2019-11-08 大连海事大学 无人船艇航行控制方法、***、存储介质及计算机设备
CN110625616A (zh) * 2019-10-17 2019-12-31 徐龙 一种考虑机械臂参数不确定和干扰的固定时间控制方法
CN110989589B (zh) * 2019-11-30 2023-06-06 沈阳工业大学 一种不同训练者质量随机变化的康复步行机器人的跟踪控制方法
CN112987561B (zh) * 2019-12-17 2022-06-17 无锡市电子仪表工业有限公司 一种有限时间轨迹跟踪的鲁棒滤波器型迭代学习控制方法
CN113021331B (zh) * 2019-12-24 2022-04-05 沈阳智能机器人创新中心有限公司 一种七自由度协作机器人动力学建模与辨识方法
CN111399397B (zh) * 2020-04-01 2022-03-04 合肥工业大学 机器人的控制方法、控制器及控制***
CN111736460B (zh) * 2020-05-28 2022-04-29 西华大学 机器人自适应迭代学习控制方法及***
CN112091829B (zh) * 2020-08-31 2021-12-21 江苏大学 一种喷砂除锈并联机器人补偿摩擦力突变模糊自适应滑模控制方法
CN112068434B (zh) * 2020-09-09 2021-09-21 北京航空航天大学 基于扩展状态观测器的康复机械装置迭代学习控制方法
CN112208796B (zh) * 2020-09-09 2021-11-02 北京航空航天大学 一种重力场混合线性化方法
CN112091976B (zh) * 2020-09-17 2022-03-18 哈尔滨工程大学 一种水下机械臂任务空间控制方法
CN113146617A (zh) * 2021-03-02 2021-07-23 中山大学 一种柔性机器人动力学建模及轨迹跟随控制方法及装置
CN112947090B (zh) * 2021-03-23 2023-05-26 河南理工大学 一种dos攻击下轮式机器人数据驱动迭代学习控制方法
CN113110062A (zh) * 2021-05-08 2021-07-13 湖南太观科技有限公司 基于深度物理网络的机器人控制***
CN113359473B (zh) * 2021-07-06 2022-03-11 天津大学 基于迭代学习的微小型无人直升机非线性控制方法
CN114102598B (zh) * 2021-11-28 2024-03-22 中国船舶重工集团公司第七一三研究所 一种机器人定点作业轨迹跟踪优化方法
CN114035588B (zh) * 2021-11-30 2023-03-07 黄山学院 一种移动机器人轨迹跟踪事件触发控制方法
CN114310914B (zh) * 2022-02-15 2024-05-07 南开大学 多自由度机械臂模糊自适应迭代轨迹跟踪控制方法及***
CN114932548B (zh) * 2022-04-29 2023-03-24 北京科技大学 一种弹性机器人关节角位移跟踪控制方法
CN114952849B (zh) * 2022-06-01 2023-05-16 浙江大学 一种基于强化学习与动力学前馈融合的机器人轨迹跟踪控制器设计方法
CN117484499B (zh) * 2023-11-14 2024-06-07 合肥工业大学 一种机械臂鲁棒轨迹跟踪的scara机器人
CN117647985B (zh) * 2024-01-30 2024-05-03 中国科学院苏州生物医学工程技术研究所 一种助力机器人轨迹跟踪控制方法、***、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102289204A (zh) * 2011-06-03 2011-12-21 华南理工大学 基于确定学习理论的机械臂通用控制方法
CN103901776A (zh) * 2014-04-04 2014-07-02 哈尔滨工程大学 一种工业机械手抗干扰鲁棒自适应pid控制方法
CN104808487A (zh) * 2015-03-03 2015-07-29 台州学院 一种神经网络自适应鲁棒轨迹跟踪方法及控制器
JP5765615B2 (ja) * 2011-02-28 2015-08-19 株式会社Ihi 加工ロボットの軌道追従装置と方法
CN106154829A (zh) * 2016-08-23 2016-11-23 南京航空航天大学 一种基于离散时延估计的机械手轨迹跟踪控制方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5765615B2 (ja) * 2011-02-28 2015-08-19 株式会社Ihi 加工ロボットの軌道追従装置と方法
CN102289204A (zh) * 2011-06-03 2011-12-21 华南理工大学 基于确定学习理论的机械臂通用控制方法
CN103901776A (zh) * 2014-04-04 2014-07-02 哈尔滨工程大学 一种工业机械手抗干扰鲁棒自适应pid控制方法
CN104808487A (zh) * 2015-03-03 2015-07-29 台州学院 一种神经网络自适应鲁棒轨迹跟踪方法及控制器
CN106154829A (zh) * 2016-08-23 2016-11-23 南京航空航天大学 一种基于离散时延估计的机械手轨迹跟踪控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A robust adaptive iterative learning control for trajectory tracking of permanent-magnet spherical actuator;Liang Zhang etc.;《IEEE transactions on industrial electronics》;20160131;第291-301页 *
Alignment condition-based robust adaptive iterative learning control of uncertain robot system;Guofeng Tong etc.;《advances in mechanical engineering》;20141231;第1-8页 *
An adaptive switching learning control method for trajectory tracking of robot manipulators;P.R. Ouyang etc.;《mechatronics》;20060228;第16卷(第1期);第51-61页 *

Also Published As

Publication number Publication date
CN108319144A (zh) 2018-07-24

Similar Documents

Publication Publication Date Title
CN108319144B (zh) 一种机器人轨迹跟踪控制方法及***
CN108942924B (zh) 基于多层神经网络的模型不确定性机械臂运动控制方法
CN111152225B (zh) 存在输入饱和的不确定机械臂固定时间轨迹跟踪控制方法
CN108628172B (zh) 一种基于扩张状态观测器的机械臂高精度运动控制方法
CN111496792A (zh) 一种机械臂输入饱和固定时间轨迹跟踪控制方法及***
CN108453732B (zh) 控制体系封闭机器人自适应动态力/位置混合控制方法
CN111941432B (zh) 一种高性能机械臂人工智能输出反馈控制方法
CN111618858A (zh) 一种基于自适应模糊滑模的机械手鲁棒跟踪控制算法
CN108614426A (zh) 一种基于干扰观测器的多移动机器人编队鲁棒控制方法
JPH0740204B2 (ja) 多自由度非線形機械システムの制御装置
CN111596545A (zh) 一种多输入多输出机械***自适应容错预设性能控制方法
CN106393116A (zh) 具有初态学习的机械臂分数阶迭代学习控制方法及***
Lu et al. Online constrained optimization based adaptive robust control of a class of MIMO nonlinear systems with matched uncertainties and input/state constraints
CN115990888B (zh) 一种具有死区和时变约束功能的机械臂控制方法
CN109828468A (zh) 一种针对磁滞非线性机器人***的控制方法
JP6410971B2 (ja) サーボ制御装置
CN113485396A (zh) 一种航天器交会对接最后逼近段相对轨道与姿态跟踪控制方法
Naghibi et al. Fuzzy MTEJ controller with integrator for control of underactuated manipulators
Aksman et al. Force estimation based compliance control of harmonically driven manipulators
CN114434449B (zh) 一种新型粒子群自适应阻抗控制方法及装置
CN109324503B (zh) 基于鲁棒积分的多层神经网络电机***控制方法
Wu et al. Robust integral of neural network and precision motion control of electrical–optical gyro-stabilized platform with unknown input dead-zones
Wang et al. Repetitive Control Scheme of Robotic Manipulators Based on Improved B‐Spline Function
Mendes et al. Variable structure position control of an industrial robotic manipulator
CN114114903A (zh) 一种基于变指数幂次趋近律的板球***积分终端滑模控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant