CN110597072A - 机器人导纳柔顺控制方法及*** - Google Patents

机器人导纳柔顺控制方法及*** Download PDF

Info

Publication number
CN110597072A
CN110597072A CN201911006791.8A CN201911006791A CN110597072A CN 110597072 A CN110597072 A CN 110597072A CN 201911006791 A CN201911006791 A CN 201911006791A CN 110597072 A CN110597072 A CN 110597072A
Authority
CN
China
Prior art keywords
admittance
sample
robot
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911006791.8A
Other languages
English (en)
Other versions
CN110597072B (zh
Inventor
周朝政
潘昕荻
凌宇飞
李丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Electric Group Corp
Original Assignee
Shanghai Electric Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Electric Group Corp filed Critical Shanghai Electric Group Corp
Priority to CN201911006791.8A priority Critical patent/CN110597072B/zh
Publication of CN110597072A publication Critical patent/CN110597072A/zh
Application granted granted Critical
Publication of CN110597072B publication Critical patent/CN110597072B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/048Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种机器人导纳柔顺控制方法及***,其中,机器人导纳柔顺控制方法包括:检测施加在机器人上的操作力,并检测机器人的运动速度和加速度;将操作力、运动速度和加速度输入至一训练后的神经网络模型,神经网络模型输出导纳参数,导纳参数包括虚拟阻尼和虚拟质量。本发明通过神经网络模型实现的柔顺控制算法,能根据人机交互环境刚度变化即外部施加于机器人上的不同的力,实时改变机器人***导纳参数,从而提高人机交互的柔顺性以及实现机器人灵敏和快速的响应。

Description

机器人导纳柔顺控制方法及***
技术领域
本发明涉及控制领域,尤其涉及一种机器人导纳柔顺控制方法及***。
背景技术
目前商业化的人机交互型机器人主要采用阻抗控制和导纳控制两种方法。
阻抗控制是指输入位移而输出力的控制方式,它对模型参数的不确定性具有很强的鲁棒性,可以限制相互作用的力,在非常刚性的环境中可以保证非常好的性能和稳定性,然而阻抗控制不能提供足够的刚性行为和补偿摩擦,导致在柔性环境和***的精度较差,因此,阻抗控制在人机交互的场合不适用。
导纳控制是研究输入力与输出速度之间的关系问题,更适合与柔性环境相互交互或者是在自由环境中进行操作的场景,这更适合医生在手术中更直观地、充分地、安全地感知手术交互的环境,但若环境刚度变化较大,会引起***不稳定。当医生在拖动机器人运动过程中,不可避免会有失误和抖动的存在,并且在精度要求高的手术区域,医生不能保证其拖动机器人能较好完成相应手术。
专利CN106618375A设计了多个模块化关节的机器人,在机器人末端安装多维力传感器操作时,医生手持机器人末端手术工具,医生施加在工具上的力传递到多维力传感器上,通过力与机器人速度的匹配,实现机器人柔顺控制,从而实现人机协同交互。但只对多个模块化关节的机器人设计进行了详细的描述,没有对控制算法本身设计具体案例的描述。
专利CN104626168A设计了一种基于阻抗控制的机器人力位柔顺控制算法,通过预测算法预测机器人与环境交互力并与机器人实际感知力进行比较,校正控制***实际力。根据轨迹形成各关节伺服电机信号,以此控制伺服电机实现力位柔顺控制。专利CN104626168A采用了力位柔顺机器人控制,适合刚性环境交互,不适用于临床手术人机交互环境。
专利CN106695797A设计了一种基于双臂机器人协同操作的柔顺控制***,采用主从式和共享式策略进行负载的公共力分解,进而提出了双臂协同操作的主从式力柔顺控制和共享式力柔顺控制方法。专利CN106695797A中通过建立期望运动轨迹与期望力的动力学模型,通过满足约束求解得到期望位姿与力,实现机器人阻抗控制的力柔顺操作,这种基于阻抗控制柔顺控制不适用于临床手术的人机交互方式,医生与环境的交互直观性差。
发明内容
本发明要解决的技术问题是为了克服现有技术中的临床手术中,人机交互环境下,机器人操作精柔顺性差的缺陷,提供一种基于神经网络策略的机器人导纳柔顺控制方法及***。
本发明是通过下述技术方案来解决上述技术问题:
机器人导纳柔顺控制方法,所述机器人导纳柔顺控制方法包括:
检测施加在所述机器人上的操作力,并检测所述机器人的运动速度和加速度;
将所述操作力、所述运动速度和所述加速度输入至一训练后的神经网络模型,所述神经网络模型输出导纳参数,所述导纳参数包括虚拟阻尼和虚拟质量。
优选地,将所述操作力、所述运动速度和所述加速度输入至一训练后的神经网络模型的步骤之前包括:
建立所述神经网络模型;
利用遗传算法训练所述神经网络模型。
优选地,所述神经网络模型为全连通多层前馈网络,所述全连通多层前馈网络包括隐藏层和输出层,所述隐藏层包括多个神经元,所述隐藏层的输出为所述输出层的输入;
所述建立所述神经网络模型的步骤包括:
设置所述隐藏层的输出函数为:
式中s是sigmoid激活函数,wik为隐藏层第k个所述神经元的权重系数向量,bh为偏差量,T为矩阵转置符号;
设置所述输出层的输出函数为:
其中wo为输出的权重系数向量,bo为输出偏差量,y为导纳参数,T为矩阵转置符号。
优选地,所述利用遗传算法训练所述神经网络模型的步骤包括:
采集若干组施加于所述机器人上的样本操作力,以及对应的样本运动速度和样本加速度;
利用所述样本操作力、所述样本运动速度和所述样本加速度根据导纳控制公式计算并得到理想导纳参数;
分别设置能量函数、惩罚函数和最佳能量方程;
利用遗传算法随机生成所述隐藏层的输出函数的所述权重系数向量和所述偏差量;
将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型;
利用所述能量函数、所述惩罚函数和所述最佳能量方程处理所述输入参数得到样本导纳参数;
判断所述理想导纳参数与所述样本导纳参数的差值是否在预设范围内,若是,则训练结束;若否,则调整所述权重系数向量和所述偏差量,并返回至所述将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型的步骤。
优选地,
设置所述能量函数为:
其中p为样本坐标位置,pref为预设坐标位置,T为响应特征,所述响应特征包括响应时间、稳态值、上升时间中的至少一种;
和/或,设置所述惩罚函数:
其中,Rforward为前向惩罚函数,Rbackward为后向惩罚函数,式中N为所述样本操作力,Jfi与Jbi分别为第i步的前向与后向能量方程;
和/或,设置所述最佳能量方程为:
F=max(Rforward,Rbackward)。
机器人导纳柔顺控制***,所述机器人导纳柔顺控制***包括检测模块、导纳模块;
所述检测模块用于检测施加在所述机器人上的操作力,并检测所述机器人的运动速度和加速度;
所述导纳模块用于将所述操作力、所述运动速度和所述加速度输入至一训练后的神经网络模型,所述神经网络模型输出导纳参数,所述导纳参数包括虚拟阻尼和虚拟质量。
优选地,所述机器人导纳柔顺控制***包括模型建立模块和模型训练模块;
所述模型建立模块用于建立所述神经网络模型;
所述模型训练模块用于利用遗传算法训练所述神经网络模型。
优选地,所述神经网络模型为全连通多层前馈网络,所述全连通多层前馈网络包括隐藏层和输出层,所述隐藏层包括多个神经元,所述隐藏层的输出为所述输出层的输入;
所述模型建立模块还用于设置所述隐藏层的输出函数为:
式中s是sigmoid激活函数,wik为隐藏层第k个所述神经元的权重系数向量,bh为偏差量,T为矩阵转置符号;
还用于设置所述输出层的输出函数为:
其中wo为输出的权重系数向量,bo为输出偏差量,y为导纳参数,T为矩阵转置符号。
优选地,所述模型训练模块还用于采集若干组施加于所述机器人上的样本操作力,以及对应的样本运动速度和样本加速度;
所述模型训练模块还用于利用所述样本操作力、所述样本运动速度和所述样本加速度根据导纳控制公式计算并得到理想导纳参数;
所述模型训练模块还用于分别设置能量函数、惩罚函数和最佳能量方程;
所述模型训练模块还用于利用遗传算法随机生成所述隐藏层的输出函数的所述权重系数向量和所述偏差量;
所述模型训练模块还用于将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型;
所述模型训练模块还用于利用所述能量函数、所述惩罚函数和所述最佳能量方程处理所述输入参数得到样本导纳参数;
所述模型训练模块还用于判断所述理想导纳参数与所述样本导纳参数的差值是否在预设范围内,若是,则训练结束;若否,则调整所述权重系数向量和所述偏差量,并返回至所述将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型的步骤。
优选地,
所述模型训练模块还用于设置所述能量函数为:
其中p为样本坐标位置,pref为预设坐标位置,T为响应特征,所述响应特征包括响应时间、稳态值、上升时间中的至少一种;
和/或,所述模型训练模块还用于设置所述惩罚函数:
其中,Rforward为前向惩罚函数,Rbackward为后向惩罚函数,式中N为所述样本操作力,Jfi与Jbi分别为第i步的前向与后向能量方程;
和/或,所述模型训练模块还用于设置所述最佳能量方程为:
F=max(Rforward,Rbackward)。
本发明的积极进步效果在于:
本发明通过神经网络模型实现的柔顺控制算法,能根据人机交互环境刚度变化即外部施加于机器人上的不同的力,实时改变机器人***导纳参数,从而提高人机交互的柔顺性以及实现机器人灵敏和快速的响应。
附图说明
图1为本发明实施例1的机器人导纳柔顺控制方法的流程图。
图2为本发明实施例2的机器人导纳柔顺控制方法的流程图。
图3为本发明实施例2的机器人导纳柔顺控制方法中神经网络模型的结构示意图。
图4为本发明实施例2的机器人导纳柔顺控制方法中步骤100的流程图。
图5为本发明实施例2的机器人导纳柔顺控制方法中步骤101的流程图。
图6本发明实施例3的机器人导纳柔顺控制***的模块示意图。
图7本发明实施例4的机器人导纳柔顺控制***的模块示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供一种机器人导纳柔顺控制方法,如图1所示,机器人导纳柔顺控制方法包括:
步骤11、检测施加在机器人上的操作力,并检测机器人的运动速度和加速度。
步骤12、将操作力、运动速度和加速度输入至一训练后的神经网络模型,神经网络模型输出导纳参数,导纳参数包括虚拟阻尼和虚拟质量。
本实施例中的机器人可以用于辅助医疗、艺术雕刻等人机协作,尤其适用于辅助医疗,本发明实施例对其具体应用领域不作限制。另外,所述机器人应做广义理解,例如:所述机器人可以是能够实现人机交互和智能控制的机械臂。
所述操作力可以是在人机交互的过程中,操作者给予机器人的交互力。例如:在临床手术的过程中,在机械臂的末端连接着传感器的一端,传感器的另一端连接夹具,所述夹具中固定有手术工具,操作者用手控制手术工具进行多个方向的位移,进而执行手术过程,此时,操作者施加在手术工具上的交互力可以被传感器采集,即为操作力。
下面通过导纳控制的具体控制原理来说明导纳参数(虚拟质量以及虚拟阻尼)对机器人运动性能的影响。
本实施例所提出的导纳控制定律是基于利用位置、期望速度与传感器监测的力。
由于***刚度对导纳控制的影响可以忽略,因此导纳参数质量与阻尼控制着机器人整体的运动速度和交互性能,导纳模型如下:
其中,F为传感器测得的操作力矢量,m为虚拟质量参数,c为虚拟阻尼参数,分别为速度和加速度矢量。
对公式(1)以操作力作为***输入量,速度作为***输出量做拉普拉斯变化,得到方程为:
H(s)为导纳传递函数,虚拟阻尼c以及虚拟质量与虚拟阻尼之比m/c决定了H(s)的值;其中虚拟阻尼c影响***响应的稳定状态值,而虚拟质量与虚拟阻尼之比m/c影响***的动态性能。也可以说,虚拟阻尼c影响响应的稳态值,而虚拟质量与虚拟阻尼比m/c影响整个机器人***的动力学性能。
当导纳参数(虚拟质量和虚拟阻尼)为固定值时,机器人的动态性能保持不变,但无法在精细小范围操作运动及粗放大范围操作运动之间进行协调,即无法协调移动机器人所需的力和执行精细的运动;当导纳参数被设置为高值,通常需要一个更大的操作力以给定的速度或加速度来移动机器人,此时机器人更容易执行精细的动作,因为此时机器人的反应性较弱,人机交互顺畅。当导纳参数被设置为低值,则更容易以高的速度或加速移动机器人,但更难执行精细的动作。
基于上述公式(1)和(2)的原理,本实施例通过利用神经网络模型实现柔顺控制算法,能根据人机交互环境刚度变化即外部施加于机器人上的不同的力,实时改变导纳参数,从而提高机器人的输出柔顺性以及实现机器人灵敏和快速的响应。
实施例2
本实施例提供一种机器人导纳柔顺控制方法,本实施例与实施例1相比,其区别在于,如图2所示,将操作力、运动速度和加速度输入至一训练后的神经网络模型的步骤之前还包括:
步骤100、建立神经网络模型。
步骤101、利用遗传算法训练神经网络模型。
本实施例中,神经网络模型结构采用自适应***,采用的结构是一个单个隐藏层的全连通多层前馈网络。全连通多层前馈网络包括输入层、隐藏层和输出层,隐藏层包括多个神经元,隐藏层的输出为输出层的输入。每层的层数和神经元数是在简单性、性能和训练时间之间进行权衡的结果。由于神经网络模型的输入层接收机器人的运动速度和加速度和操作力F作为输入,所以它由若干个节点组成,这些节点取决于所考虑问题的维数。本实施例中,神经网络模型结构具体见图3所示,隐藏层和输出层分别由5个神经元和1个神经元组成,选择隐藏层个数参考标准(添加隐藏层神经元并没有显著提高其性能)。
神经网络模型也可以选用其他常用的模型,在此不做具体限定。但在大量的实验中,全连通多层前馈网络的控制精度相比于其他模型,精确度更高,反应灵敏和快速的响应的时间少,效果更好。
更具体的,如图4所示,步骤100包括:
步骤1001、设置隐藏层的输出函数。
具体为:
式中s是sigmoid激活函数,wik为隐藏层第k个神经元的权重系数向量,bh为偏差量,T为矩阵转置符号;
步骤1002、设置输出层的输出函数。
具体为:
其中wo为输出的权重系数向量,bo为输出偏差量,y为导纳参数,T为矩阵转置符号。
如图5所示,步骤101包括:
步骤1011、采集若干组施加于机器人上的样本操作力,以及对应的样本运动速度和样本加速度。
通常情况下,不同的应用场景有不同的操作力以及移动空间,可在具体应用场景中预设操作力范围以及预设移动空间位置范围,为便于采集一系列数据以及方便过程数据处理,在训练过程中,可将采集的连续的样本操作力进行离散化处理,离散化处理后的数据范围遍布整个预设操作力范围。
步骤1012、利用样本操作力、样本运动速度和样本加速度根据导纳控制公式计算并得到理想导纳参数。
步骤1013、分别设置能量函数、惩罚函数和最佳能量方程。
设置能量函数为:
其中p为样本坐标位置,pref为预设坐标位置,T为响应特征,响应特征包括响应时间、稳态值、上升时间中的至少一种;
设置惩罚函数:
其中,Rforward为前向惩罚函数,Rbackward为后向惩罚函数,式中N为样本操作力,Jfi与Jbi分别为第i步的前向与后向能量方程;
设置最佳能量方程为:,
F=max(Rforward,Rbackward)。
步骤1014、利用遗传算法随机生成隐藏层的输出函数的权重系数向量和偏差量;
对于隐藏层的每个神经元均随机生成输出函数的权重系数向量和偏差量。
步骤1015、将样本操作力、样本运动速度和样本加速度作为输入参数输入至神经网络模型。
步骤1016、利用能量函数、惩罚函数和最佳能量方程处理输入参数得到样本导纳参数。
对于隐藏层的每个神经元,根据检测的操作力、速度及加速度计算***的导纳参数以及前、后向的惩罚函数。对于每个子神经元计算能量函数。
步骤1017、判断理想导纳参数与样本导纳参数的差值是否在预设范围内,若是,则训练结束;若否,则执行步骤1018。
步骤1018、调整权重系数向量和偏差量,并返回步骤1015。
本实施例实验的主体为丹麦优傲机器人公司生产的UR5机器人,重18.4kg(千克),最大载荷5kg,机器人最大操作空间850mm(毫米)。控制器采用德国倍福公司生产的CX2030控制器,采样频率1000Hz(赫兹)。
首先,根据经验获得与UR5机器人交互的环境刚度,测得此时传感器受力值(离散值10-200N(牛顿)),设定默认虚拟质量取值为5-10kg,虚拟阻尼最大值1000Ns/m、最小值设为250Ns/m。根据公式(1)和(2),根据环境刚度(操作力)计算理想状态下***的响应,以确保在导纳参数变化时***处于稳定状态。
其次,构建神经网络模型,由于输入层接收机器人的运动速度和加速度和操作力作为输入,输出量为训练后的导纳参数。
通过在具体应用场景中的预设操作力范围以及预设移动空间位置范围内,以设定的能量函数、惩罚函数和最佳能量方程对神经网络模型进行训练,通过利用遗传算法随机生成一个由代表不同神经网络权重集的个体组成的种群,该训练针对每个离散范围内的操作力分别对机器人的操作进行仿真,然后利用遗传算法最小化能量函数;根据执行多组机器人的跟随轨迹实验测得不同的导纳参数,并根据轨迹偏差来确定最优方案下的导纳参数值,实时改变机器人***导纳参数,从而提高人机交互的柔顺性以及实现机器人灵敏和快速的响应,效果更好。
实施例3
本实施例提供一种机器人导纳柔顺控制***,如图6所示,机器人导纳柔顺控制***包括检测模块31、导纳模块32;
检测模块31用于检测施加在机器人上的操作力,并检测机器人的运动速度和加速度;
导纳模块32用于将操作力、运动速度和加速度输入至一训练后的神经网络模型,神经网络模型输出导纳参数,导纳参数包括虚拟阻尼和虚拟质量。
本实施例中的机器人可以用于辅助医疗、艺术雕刻等场景,尤其适用于辅助医疗,本发明实施例对其具体应用领域不作限制。另外,所述机器人应做广义理解,例如:所述机器人可以是能够实现人机交互和智能控制的机械臂。
所述操作力可以是在人机交互的过程中,操作者给予机器人的交互力。例如:在临床手术的过程中,在机械臂的末端连接着传感器的一端,传感器的另一端连接夹具,所述夹具中固定有手术工具,操作者用手控制手术工具进行多个方向的位移,进而执行手术过程,此时,操作者施加在手术工具上的交互力可以被传感器采集,即为操作力。
下面通过导纳控制的具体控制原理来说明导纳参数(虚拟质量以及虚拟阻尼)对机器人运动性能的影响。
本实施例所提出的导纳控制定律是基于利用位置、期望速度与传感器监测的力。
由于***刚度对导纳控制的影响可以忽略,因此导纳参数质量与阻尼控制着机器人整体的运动速度和交互性能,导纳模型如下:
其中,F为传感器测得的操作力矢量,m为虚拟质量参数,c为虚拟阻尼参数,分别为速度和加速度矢量。
对公式(1)以操作力作为***输入量,速度作为***输出量做拉普拉斯变化,得到方程为:
H(s)为导纳传递函数,虚拟阻尼c以及虚拟质量与虚拟阻尼之比m/c决定了H(s)的值;其中虚拟阻尼c影响***响应的稳定状态值,而虚拟质量与虚拟阻尼之比m/c影响***的动态性能。也可以说,虚拟阻尼c影响响应的稳态值,而虚拟质量与虚拟阻尼比m/c影响整个机器人***的动力学性能。
当导纳参数(虚拟质量和虚拟阻尼)为固定值时,机器人的动态性能保持不变,但无法在精细小范围操作运动及粗放大范围操作运动之间进行协调,即无法协调移动机器人所需的力和执行精细的运动;当导纳参数被设置为高值,通常需要一个更大的操作力以给定的速度或加速度来移动机器人,此时机器人更容易执行精细的动作,因为此时机器人的反应性较弱,人机交互顺畅。当导纳参数被设置为低值,则更容易以高的速度或加速移动机器人,但更难执行精细的动作。
基于上述公式(1)和(2)的原理,本实施例通过利用神经网络模型实现柔顺控制算法,能根据人机交互环境刚度变化即外部施加于机器人上的不同的力,实时改变导纳参数,从而提高机器人的人机交互的柔顺性以及实现机器人灵敏和快速的响应。
实施例4
本实施例提供一种机器人导纳柔顺控制***,本实施例与实施例3相比,其区别在于,如图6所示,机器人导纳柔顺控制***还包括模型建立模块33和模型训练模块34;
模型建立模块33用于建立神经网络模型;
模型训练模块34用于利用遗传算法训练神经网络模型。
优选地,神经网络模型为全连通多层前馈网络,全连通多层前馈网络包括隐藏层和输出层,隐藏层包括多个神经元,隐藏层的输出为输出层的输入。
本实施例中,神经网络模型结构采用自适应***,采用的结构是一个单个隐藏层的全连通多层前馈网络。全连通多层前馈网络包括输入层、隐藏层和输出层,隐藏层包括多个神经元,隐藏层的输出为输出层的输入。每层的层数和神经元数是在简单性、性能和训练时间之间进行权衡的结果。由于神经网络模型的输入层接收机器人的运动速度和加速度和操作力F作为输入,所以它由若干个节点组成,这些节点取决于所考虑问题的维数。本实施例中,神经网络模型结构具体见图3所示,隐藏层和输出层分别由5个神经元和1个神经元组成,选择隐藏层个数参考标准(添加隐藏层神经元并没有显著提高其性能)。
神经网络模型也可以选用其他常用的模型,在此不做具体限定。但在大量的实验中,全连通多层前馈网络的控制精度相比于其他模型,精确度更高,反应灵敏和快速的响应的时间少,效果更好。
更具体的,模型建立模块33还用于设置隐藏层的输出函数为:
式中s是sigmoid激活函数,wik为隐藏层第k个神经元的权重系数向量,bh为偏差量,T为矩阵转置符号;
模型建立模块33还用于设置输出层的输出函数为:
其中wo为输出的权重系数向量,bo为输出偏差量,y为导纳参数,T为矩阵转置符号。
优选地,模型训练模块34还用于采集若干组施加于机器人上的样本操作力,以及对应的样本运动速度和样本加速度。
通常情况下,不同的应用场景有不同的操作力以及移动空间,可在具体应用场景中预设操作力范围以及预设移动空间位置范围,为便于采集一系列数据以及方便过程数据处理,在训练过程中,可将采集的连续的样本操作力进行离散化处理,离散化处理后的数据范围遍布整个预设操作力范围。
模型训练模块34还用于利用样本操作力、样本运动速度和样本加速度根据导纳控制公式计算并得到理想导纳参数;
模型训练模块34还用于分别设置能量函数、惩罚函数和最佳能量方程;
模型训练模块34还用于利用遗传算法随机生成隐藏层的输出函数的权重系数向量和偏差量。
对于隐藏层的每个神经元均随机生成输出函数的权重系数向量和偏差量。
模型训练模块34还用于将样本操作力、样本运动速度和样本加速度作为输入参数输入至神经网络模型;
模型训练模块34还用于利用能量函数、惩罚函数和最佳能量方程处理输入参数得到样本导纳参数。
对于隐藏层的每个神经元,根据检测的操作力、速度及加速度计算***的导纳参数以及前、后向的惩罚函数。对于每个子神经元计算能量函数。
模型训练模块34还用于判断理想导纳参数与样本导纳参数的差值是否在预设范围内,若是,则训练结束;若否,则调整权重系数向量和偏差量,并返回至将样本操作力、样本运动速度和样本加速度作为输入参数输入至神经网络模型的步骤。
优选地,
模型训练模块34还用于设置能量函数为:
其中p为样本坐标位置,pref为预设坐标位置,T为响应特征,响应特征包括响应时间、稳态值、上升时间中的至少一种;
模型训练模块34还用于设置惩罚函数:
其中,Rforward为前向惩罚函数,Rbackward为后向惩罚函数,式中N为样本操作力,Jfi与Jbi分别为第i步的前向与后向能量方程;
模型训练模块34还用于设置最佳能量方程为:
F=max(Rforward,Rbackward)。
本实施例实验的主体为丹麦优傲机器人公司生产的UR5机器人,重18.4kg(千克),最大载荷5kg,机器人最大操作空间850mm(毫米)。控制器采用德国倍福公司生产的CX2030控制器,采样频率1000Hz(赫兹)。
首先,根据经验获得与UR5机器人交互的环境刚度,测得此时传感器受力值(离散值10-200N(牛顿)),设定默认虚拟质量取值为5-10kg,虚拟阻尼最大值1000Ns/m、最小值设为250Ns/m。根据公式(1)和(2),根据环境刚度(操作力)计算理想状态下***的响应,以确保在导纳参数变化时***处于稳定状态。
其次,构建神经网络模型,由于输入层接收机器人的运动速度和加速度和操作力作为输入,输出量为训练后的导纳参数。
通过在具体应用场景中的预设操作力范围以及预设移动空间位置范围内,以设定的能量函数、惩罚函数和最佳能量方程对神经网络模型进行训练,通过利用遗传算法随机生成一个由代表不同神经网络权重集的个体组成的种群,该训练针对每个离散范围内的操作力分别对机器人的操作进行仿真,然后利用遗传算法最小化能量函数;根据执行多组机器人的跟随轨迹实验测得不同的导纳参数,并根据轨迹偏差来确定最优方案下的导纳参数值,从而实现变导纳参数控制,使得机器人的跟随精确度更高,反应灵敏和快速的响应的时间少,效果更好。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (10)

1.机器人导纳柔顺控制方法,其特征在于,所述机器人导纳柔顺控制方法包括:
检测施加在所述机器人上的操作力,并检测所述机器人的运动速度和加速度;
将所述操作力、所述运动速度和所述加速度输入至一训练后的神经网络模型,所述神经网络模型输出导纳参数,所述导纳参数包括虚拟阻尼和虚拟质量。
2.如权利要求1所述的机器人导纳柔顺控制方法,其特征在于,将所述操作力、所述运动速度和所述加速度输入至一训练后的神经网络模型的步骤之前包括:
建立所述神经网络模型;
利用遗传算法训练所述神经网络模型。
3.如权利要求2所述的机器人导纳柔顺控制方法,其特征在于,所述神经网络模型为全连通多层前馈网络,所述全连通多层前馈网络包括隐藏层和输出层,所述隐藏层包括多个神经元,所述隐藏层的输出为所述输出层的输入;
所述建立所述神经网络模型的步骤包括:
设置所述隐藏层的输出函数为:
式中s是sigmoid激活函数,wik为隐藏层第k个所述神经元的权重系数向量,其中i为1-3,bh为偏差量,T为矩阵转置符号;
设置所述输出层的输出函数为:
其中wo为输出的权重系数向量,bo为输出偏差量,y为导纳参数,T为矩阵转置符号。
4.如权利要求3所述的机器人导纳柔顺控制方法,其特征在于,所述利用遗传算法训练所述神经网络模型的步骤包括:
采集若干组施加于所述机器人上的样本操作力,以及对应的样本运动速度和样本加速度;
利用所述样本操作力、所述样本运动速度和所述样本加速度根据导纳控制公式计算并得到理想导纳参数;
分别设置能量函数、惩罚函数和最佳能量方程;
利用遗传算法随机生成所述隐藏层的输出函数的所述权重系数向量和所述偏差量;
将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型;
利用所述能量函数、所述惩罚函数和所述最佳能量方程处理所述输入参数得到样本导纳参数;
判断所述理想导纳参数与所述样本导纳参数的差值是否在预设范围内,若是,则训练结束;若否,则调整所述权重系数向量和所述偏差量,并返回至所述将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型的步骤。
5.如权利要求4所述的机器人导纳柔顺控制方法,其特征在于,
设置所述能量函数为:
其中p为样本坐标位置,pref为预设坐标位置,T为响应特征,所述响应特征包括响应时间、稳态值、上升时间中的至少一种;
和/或,设置所述惩罚函数为:
其中,Rforward为前向惩罚函数,Rbackward为后向惩罚函数,式中N为所述样本操作力,Jfi与Jbi分别为第i步的前向与后向能量方程;
和/或,设置所述最佳能量方程为:
F=max(Rforward,Rbackward)。
6.机器人导纳柔顺控制***,其特征在于,所述机器人导纳柔顺控制***包括检测模块、导纳模块;
所述检测模块用于检测施加在所述机器人上的操作力,并检测所述机器人的运动速度和加速度;
所述导纳模块用于将所述操作力、所述运动速度和所述加速度输入至一训练后的神经网络模型,所述神经网络模型输出导纳参数,所述导纳参数包括虚拟阻尼和虚拟质量。
7.如权利要求6所述的机器人导纳柔顺控制***,其特征在于,所述机器人导纳柔顺控制***包括模型建立模块和模型训练模块;
所述模型建立模块用于建立所述神经网络模型;
所述模型训练模块用于利用遗传算法训练所述神经网络模型。
8.如权利要求7所述的机器人导纳柔顺控制***,其特征在于,所述神经网络模型为全连通多层前馈网络,所述全连通多层前馈网络包括隐藏层和输出层,所述隐藏层包括多个神经元,所述隐藏层的输出为所述输出层的输入;
所述模型建立模块还用于设置所述隐藏层的输出函数为:
式中s是sigmoid激活函数,wik为隐藏层第k个所述神经元的权重系数向量,bh为偏差量,T为矩阵转置符号;
还用于设置所述输出层的输出函数为:
其中wo为输出的权重系数向量,bo为输出偏差量,y为导纳参数,T为矩阵转置符号。
9.如权利要求8所述的机器人导纳柔顺控制***,其特征在于,所述模型训练模块还用于采集若干组施加于所述机器人上的样本操作力,以及对应样本运动速度和样本加速度;
所述模型训练模块还用于利用所述样本操作力、所述样本运动速度和所述样本加速度根据导纳控制公式计算并得到理想导纳参数;
所述模型训练模块还用于分别设置能量函数、惩罚函数和最佳能量方程;
所述模型训练模块还用于利用遗传算法随机生成所述隐藏层的输出函数的所述权重系数向量和所述偏差量;
所述模型训练模块还用于将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型;
所述模型训练模块还用于利用所述能量函数、所述惩罚函数和所述最佳能量方程处理所述输入参数得到样本导纳参数;
所述模型训练模块还用于判断所述理想导纳参数与所述样本导纳参数的差值是否在预设范围内,若是,则训练结束;若否,则调整所述权重系数向量和所述偏差量,并返回至所述将所述样本操作力、所述样本运动速度和所述样本加速度作为输入参数输入至所述神经网络模型的步骤。
10.如权利要求9所述的机器人导纳柔顺控制***,其特征在于,
所述模型训练模块还用于设置所述能量函数为:
其中p为样本坐标位置,pref为预设坐标位置,T为响应特征,所述响应特征包括响应时间、稳态值、上升时间中的至少一种;
和/或,所述模型训练模块还用于设置所述惩罚函数为:
其中,Rforward为前向惩罚函数,Rbackward为后向惩罚函数,式中N为所述样本操作力,Jfi与Jbi分别为第i步的前向与后向能量方程;
和/或,所述模型训练模块还用于设置所述最佳能量方程为:
F=max(Rforward,Rbackward)。
CN201911006791.8A 2019-10-22 2019-10-22 机器人导纳柔顺控制方法及*** Active CN110597072B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911006791.8A CN110597072B (zh) 2019-10-22 2019-10-22 机器人导纳柔顺控制方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911006791.8A CN110597072B (zh) 2019-10-22 2019-10-22 机器人导纳柔顺控制方法及***

Publications (2)

Publication Number Publication Date
CN110597072A true CN110597072A (zh) 2019-12-20
CN110597072B CN110597072B (zh) 2022-06-10

Family

ID=68851286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911006791.8A Active CN110597072B (zh) 2019-10-22 2019-10-22 机器人导纳柔顺控制方法及***

Country Status (1)

Country Link
CN (1) CN110597072B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111168677A (zh) * 2020-01-08 2020-05-19 山东理工大学 一种仿人柔性手臂***稳定性控制方法
CN111290269A (zh) * 2020-02-11 2020-06-16 西北工业大学深圳研究院 一种空间机器人的自适应柔顺稳定控制方法
CN112171670A (zh) * 2020-09-22 2021-01-05 北京石油化工学院 一种康复机器人等张运动控制方法及***
CN114406983A (zh) * 2021-12-06 2022-04-29 中国科学院深圳先进技术研究院 下肢外骨骼机器人的自适应导纳控制方法及相关装置
CN114589702A (zh) * 2022-04-24 2022-06-07 合肥工业大学 基于动力学参数辨识和导纳控制的协作机器人拖动方法
CN114833820A (zh) * 2021-02-01 2022-08-02 精工爱普生株式会社 动作参数调整方法、记录介质以及机器人***
CN114932557A (zh) * 2022-06-24 2022-08-23 合肥工业大学 一种运动学约束下基于能量消耗的自适应导纳控制方法
CN115502966A (zh) * 2021-06-22 2022-12-23 腾讯科技(深圳)有限公司 用于机器人的可变导纳控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108227506A (zh) * 2018-02-08 2018-06-29 常州普旺科技有限公司 一种基于自适应最优化方法的机器人导纳控制***
CN109249394A (zh) * 2018-09-27 2019-01-22 上海电气集团股份有限公司 基于导纳控制算法的机器人控制方法及***
US20210007874A1 (en) * 2018-02-17 2021-01-14 President And Fellows Of Harvard College Wearable devices for protecting against musculoskeletal injuries and enhancing performance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108227506A (zh) * 2018-02-08 2018-06-29 常州普旺科技有限公司 一种基于自适应最优化方法的机器人导纳控制***
US20210007874A1 (en) * 2018-02-17 2021-01-14 President And Fellows Of Harvard College Wearable devices for protecting against musculoskeletal injuries and enhancing performance
CN109249394A (zh) * 2018-09-27 2019-01-22 上海电气集团股份有限公司 基于导纳控制算法的机器人控制方法及***

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111168677A (zh) * 2020-01-08 2020-05-19 山东理工大学 一种仿人柔性手臂***稳定性控制方法
CN111290269A (zh) * 2020-02-11 2020-06-16 西北工业大学深圳研究院 一种空间机器人的自适应柔顺稳定控制方法
CN111290269B (zh) * 2020-02-11 2022-04-08 西北工业大学深圳研究院 一种空间机器人的自适应柔顺稳定控制方法
CN112171670A (zh) * 2020-09-22 2021-01-05 北京石油化工学院 一种康复机器人等张运动控制方法及***
CN112171670B (zh) * 2020-09-22 2024-01-23 北京石油化工学院 一种康复机器人等张运动控制方法及***
CN114833820A (zh) * 2021-02-01 2022-08-02 精工爱普生株式会社 动作参数调整方法、记录介质以及机器人***
CN114833820B (zh) * 2021-02-01 2024-01-16 精工爱普生株式会社 动作参数调整方法、记录介质以及机器人***
CN115502966A (zh) * 2021-06-22 2022-12-23 腾讯科技(深圳)有限公司 用于机器人的可变导纳控制方法
CN115502966B (zh) * 2021-06-22 2024-04-26 腾讯科技(深圳)有限公司 用于机器人的可变导纳控制方法
CN114406983A (zh) * 2021-12-06 2022-04-29 中国科学院深圳先进技术研究院 下肢外骨骼机器人的自适应导纳控制方法及相关装置
CN114589702A (zh) * 2022-04-24 2022-06-07 合肥工业大学 基于动力学参数辨识和导纳控制的协作机器人拖动方法
CN114589702B (zh) * 2022-04-24 2024-05-07 合肥工业大学 基于动力学参数辨识和导纳控制的协作机器人拖动方法
CN114932557A (zh) * 2022-06-24 2022-08-23 合肥工业大学 一种运动学约束下基于能量消耗的自适应导纳控制方法

Also Published As

Publication number Publication date
CN110597072B (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
CN110597072B (zh) 机器人导纳柔顺控制方法及***
CN111281743B (zh) 一种上肢康复外骨骼机器人自适应柔顺控制方法
Sanger Neural network learning control of robot manipulators using gradually increasing task difficulty
Zollo et al. Biomechatronic design and control of an anthropomorphic artificial hand for prosthetic and robotic applications
CN110202574B (zh) 基于环境刚度估计的机器人自适应混合阻抗/导纳控制方法
CN112904728B (zh) 一种基于改进型趋近律的机械臂滑模控制轨迹跟踪方法
Miyamoto et al. A kendama learning robot based on bi-directional theory
EP1974869A1 (en) Apparatus and method for generating and controlling the motion of a robot
CN112247962B (zh) 面向上肢穿戴机器人的人机博弈控制方法及***
CN111522243A (zh) 一种五自由度上肢外骨骼***鲁棒迭代学习控制策略
CN110000795A (zh) 一种视觉伺服控制的方法、***及设备
CN112276944A (zh) 一种基于意图识别的人机协作***控制方法
Rombokas et al. Tendon-driven control of biomechanical and robotic systems: A path integral reinforcement learning approach
CN111702767A (zh) 一种基于反演模糊自适应的机械手阻抗控制方法
CN112782977B (zh) 一种基于bp神经网络与扩张观测器的电机柔顺控制方法
CN111230882A (zh) 一种水果分拣并联机器人夹持机构的自适应变阻抗控制方法
JP2558599B2 (ja) ロボット制御装置
JPH07319507A (ja) ロボット制御装置
CN113500597A (zh) 基于力翻译机制的多端遥操作滑模阻抗控制方法
Aksman et al. Force estimation based compliance control of harmonically driven manipulators
JP3362379B2 (ja) 力制御装置における力の検出方法
Lange et al. Iterative self-improvement of force feedback control in contour tracking.
JPH0635525A (ja) ロボットアームの制御方法
Pedreño-Molina et al. A neural tactile architecture applied to real-time stiffness estimation for a large scale of robotic grasping systems
Hirzinger et al. Towards a new generation of multisensory light-weight robots with learning capabilities

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant