CN112549028A - 基于动态运动基元和人工势场的双臂机器人轨迹规划方法 - Google Patents
基于动态运动基元和人工势场的双臂机器人轨迹规划方法 Download PDFInfo
- Publication number
- CN112549028A CN112549028A CN202011399548.XA CN202011399548A CN112549028A CN 112549028 A CN112549028 A CN 112549028A CN 202011399548 A CN202011399548 A CN 202011399548A CN 112549028 A CN112549028 A CN 112549028A
- Authority
- CN
- China
- Prior art keywords
- arm robot
- planning
- path
- dynamic motion
- term
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000006870 function Effects 0.000 claims description 51
- 230000001133 acceleration Effects 0.000 claims description 38
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 238000013016 damping Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 3
- 239000012636 effector Substances 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1682—Dual arm manipulator; Coordination of several manipulators
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明属于轨迹规划领域,具体涉及一种基于动态运动基元和人工势场的双臂机器人轨迹规划方法、***、装置,旨在解决现有机器人轨迹规划方法实时性差、泛化性差、效率低的问题。本***方法包括获取双臂机器人待路径规划的目标位置,作为输入数据;基于输入数据,双臂机器人通过预构建的动态基元运动模型得到对应的规划路径,并沿该规划路径移动至目标位置。本发明提高了有机器人轨迹规划的实时性、泛化性以及效率。
Description
技术领域
本发明属于机器人轨迹规划领域,具体涉及一种基于动态运动基元和人工势场的双臂机器人轨迹规划方法、***、装置。
背景技术
轨迹规划是机械臂控制的基础,是控制双臂机器人运动的关键技术之一,对机械臂工作效率、运动平稳性等都具有重要意义。常见的轨迹规划算法包括样条插值法、快速探索随机树(RRT)、人工势场法等。基于样条插值的轨迹规划方法含有时间常数,使得多自由度轨迹学习较为困难;快速探索随机树等基于统计的方法生成的轨迹连续性不好,在复杂环境中可能出现路径迂回和死锁,由于其搜索的盲目性,迭代的次数增加,其计算量大大增加,导致其实时性差,效率较低;人工势场法是轨迹规划算法中较为成熟且高效的规划方法,因其简单的数学模型被广泛使用,但其容易陷入局部极小值。基于此,本发明提出了一种基于动态运动基元和人工势场的双臂机器人轨迹规划方法。
发明内容
为了解决现有技术中的上述问题,即为了解决现有机器人轨迹规划方法实时性差、泛化性差、效率低的问题,本发明第一方面,提出了一种基于动态运动基元和人工势场的双臂机器人轨迹规划方法,该方法包括:
步骤S10,获取双臂机器人待路径规划的目标位置,作为输入数据;
步骤S20,基于所述输入数据,双臂机器人通过预构建的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至所述目标位置;
其中,所述动态运动基元模型,其构建方法为:
步骤A10,基于双臂机器人的D-H参数表,构建双臂机器人模型并通过蒙特卡洛算法求解双臂机器人的工作空间;
步骤A20,在所述工作空间中设置起始位置、目标位置及对应的示范路径,并实时采集双臂机器人沿所述示范路径移动时的轨迹运动数据,作为第一数据;所述轨迹运动数据包括位移、速度、加速度;
步骤A30,基于所述第一数据,通过预构建的第一模型,得到示范路径对应的非线性强迫项,作为第一强迫项;所述第一模型为不包含强迫项的离散运动的动态运动基元模型;
步骤A40,基于所述第一强迫项,结合设定的学习路径的起始位置、目标位置,通过局部加权法获取每个基函数的最佳权重值,并构建所述学习路径对应的非线性强迫项,作为第二强迫项;
步骤A50,在所述第一模型中加入所述第二强迫项、预构建的加速度排斥项,构建带有避障功能的动态运动基元模型,作为最终构建的动态运动基元模型;所述加速度排斥项基于人工势场的负梯度构建。
在一些优选的实施方式中,所述不包含强迫项的离散运动的动态运动基元模型为:
在一些优选的实施方式中,所述示范路径对应的非线性强迫项为:
在一些优选的实施方式中,“通过局部加权法获取每个基函数的最佳权重值”,其方法为:
S=(ξ(1) ξ(2) ... ξ(p))T
ξ=x(g1-y1)
其中,ψi表示服从中心为ci,方差为hi的高斯分布的基函数,ST表示,Γi表示,x表示相位变量,ωi表示第i个基函数的权重,i表示下标,T表示转置,y1、g1分别表示学习轨迹对应的起始位置、目标位置,p表示数量,为设定值。
在一些优选的实施方式中,所述学习路径对应的非线性强迫项为:
其中,f表示学习路径对应的非线性强迫项的实际值,N表示基函数的个数。
在一些优选的实施方式中,所述加速度排斥项为:
U(y)=Uatt(y)+Urep(y)
其中,表示加速度排斥项对应的实际值,U(y)表示在点y处的势函数,Urep(y)、Uatt(y)表示在点y处的引力势、斥力势,表示引力增益,d(y,g1)表示当前点y到目标点g1之间的距离,η表示斥力增益,D(y)表示点y与最近障碍物之间的距离,Q表示障碍物距离作用阈值。
本发明的第二方面,提出了一种基于动态运动基元和人工势场的双臂机器人轨迹规划***,该***包括位置获取模块、路径规划输出模块;
所述位置获取模块,配置为获取双臂机器人待路径规划的目标位置,作为输入数据;
所述路径规划输出模块,配置为基于所述输入数据,双臂机器人通过预构建的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至所述目标位置;
其中,所述动态运动基元模型,其构建方法为:
步骤A10,基于双臂机器人的D-H参数表,构建双臂机器人模型并通过蒙特卡洛算法求解双臂机器人的工作空间;
步骤A20,在所述工作空间中设置起始位置、目标位置及对应的示范路径,并实时采集双臂机器人沿所述示范路径移动时的轨迹运动数据,作为第一数据;所述轨迹运动数据包括位移、速度、加速度;
步骤A30,基于所述第一数据,通过预构建的第一模型,得到示范路径对应的非线性强迫项,作为第一强迫项;所述第一模型为不包含强迫项的离散运动的动态运动基元模型;
步骤A40,基于所述第一强迫项,结合设定的学习路径的起始位置、目标位置,通过局部加权法获取每个基函数的最佳权重值,并构建所述学习路径对应的非线性强迫项,作为第二强迫项;
步骤A50,在所述第一模型中加入所述第二强迫项、预构建的加速度排斥项,构建带有避障功能的动态运动基元模型,作为最终构建的动态运动基元模型;所述加速度排斥项基于人工势场的负梯度构建。
本发明的第三方面,提出了一种存储装置,其中存储有多条程序,所述程序适用于由处理器加载并执行以实现上述的基于动态运动基元和人工势场的双臂机器人轨迹规划方法。
本发明的第四方面,提出了一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;所述程序适用于由处理器加载并执行以实现上述的基于动态运动基元和人工势场的双臂机器人轨迹规划方法。
本发明的有益效果:
本发明提高了有机器人轨迹规划的实时性、泛化性以及效率。
(1)本发明只需采集一次轨迹样本数据进行训练,便获得动态运动基元模型权重参数,从而实现机器人自主轨迹规划。在此基础上,在机器人在完成新的任务时,只要修改运动的起点和目标点和相关参数便可,可以不用重新训练样本而保持原来样本轨迹的特性到达新的目标位置,而且该学习模型并非针对某一具体任务,其具有泛化推广的能力。
(2)本发明将人工势场法应用到动态运动基元的方法中,即在具有稳定性质的二阶动力学***中引入排斥加速度项,使得生成的轨迹点远离障碍物,如此生成的轨迹不但拥有预期的运动趋势,还可以同时达到避障的效果,提高了轨迹规划的效率和安全性。
(3)本发明将人工势场法应用到动态运动基元的方法中,与快速探索随机树等基于概率采样的方法相比,本发明方法学习到的轨迹更加连续;与插值法相比,更易于实现多自由度耦合,可对多自由度轨迹进行模仿和学习,并且本方法的相关参数较少,调节参数也更为容易。
附图说明
通过阅读参照以下附图所做的对非限制性实施例所做的详细描述,本申请的其他特征、目的和优点将会变得更明显。
图1是本发明一种实施例的动态运动基元模型的构建过程的流程示意图;
图2是本发明一种实施例的基于动态运动基元和人工势场的双臂机器人轨迹规划***的框架示意图;
图3是本发明一种实施例的生成轨迹与示范轨迹的轨迹对比的示例图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明的基于动态运动基元和人工势场的双臂机器人轨迹规划方法,包括以下步骤:
步骤S10,获取双臂机器人待路径规划的目标位置,作为输入数据;
步骤S20,基于所述输入数据,双臂机器人通过预构建的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至所述目标位置;
其中,所述动态运动基元模型,其构建方法为:
步骤A10,基于双臂机器人的D-H参数表,构建双臂机器人模型并通过蒙特卡洛算法求解双臂机器人的工作空间;
步骤A20,在所述工作空间中设置起始位置、目标位置及对应的示范路径,并实时采集双臂机器人沿所述示范路径移动时的轨迹运动数据,作为第一数据;所述轨迹运动数据包括位移、速度、加速度;
步骤A30,基于所述第一数据,通过预构建的第一模型,得到示范路径对应的非线性强迫项,作为第一强迫项;所述第一模型为不包含强迫项的离散运动的动态运动基元模型;
步骤A40,基于所述第一强迫项,结合设定的学习路径的起始位置、目标位置,通过局部加权法获取每个基函数的最佳权重值,并构建所述学习路径对应的非线性强迫项,作为第二强迫项;
步骤A50,在所述第一模型中加入所述第二强迫项、预构建的加速度排斥项,构建带有避障功能的动态运动基元模型,作为最终构建的动态运动基元模型;所述加速度排斥项基于人工势场的负梯度构建。
为了更清晰地对本发明基于动态运动基元和人工势场的双臂机器人轨迹规划方法进行说明,下面结合附图对本发明方法一种实施例中各步骤进行展开详述。
在下述实施例中,先对动态运动基元模型的构建过程进行详述,再对基于动态运动基元和人工势场的双臂机器人轨迹规划方法获取规划路径的过程进行详述。
1、动态运动基元模型的构建过程,如图1所示
步骤A10,基于双臂机器人的D-H参数表,构建双臂机器人模型并通过蒙特卡洛算法求解双臂机器人的工作空间;
在本实施例中,根据双臂机器人的D-H参数表,通过MATLAB中Robotic Toolbox工具包建立双臂机器人模型,并采用蒙特卡洛算法对双臂机器人工作空间进行求解计算,得到机器人的具体工作范围(即工作空间)。
步骤A20,在所述工作空间中设置起始位置、目标位置及对应的示范路径,并实时采集双臂机器人沿所述示范路径移动时的轨迹运动数据,作为第一数据;所述轨迹运动数据包括位移、速度、加速度;
在本实施例中,开启双臂机器人,在双臂机器人工作空间内设置起始位置和目标位置,并选择一条使双臂机器人能够从起始位置运动到目标位置,并可以避开障碍物的最优路径,即示范路径。
在双臂机器人运动过程中,实时采集双臂机器人沿示范路径移动时在笛卡尔坐标系中沿x-y-z三维方向的轨迹运动数据,轨迹运动数据包括位移、速度、加速度。
步骤A30,基于所述第一数据,通过预构建的第一模型,得到示范路径对应的非线性强迫项,作为第一强迫项;所述第一模型为不包含强迫项的离散运动的动态运动基元模型;
在本实施例中,通过利用示范轨迹样本进行训练,获得动态运动基元模型参数,从而实现机器人自主轨迹规划。
动态运动基元模型DMP本质上是在一个具有稳定性质的二阶动力学***中引入一系列高斯函数加权叠加的非线性函数项。由非线性函数来决定动态***的运动过程,从而使***达到目标吸引子状态。该方法以弹簧-质量-阻尼模型为基础,将其抽象为点吸引子***。其中,不包含强迫项的离散运动的动态运动基元模型,如式(1)所示:
其中,τ表示时间缩放因子,用来调节典型***的缩放速度,αy表示弹性常数,βy表示***阻尼项,一般为βy=αy/4,使得***到达临界阻尼状态,g表示目标位置,y、表示基元在运动过程中的位置、速度、加速度。
式(1)中的动态***是只有一个点吸引子的二阶***,因此该***只能以一种特定的运动形式收敛到目标位置g,为了使***能够按照我们想要的运动形式收敛到目标点,我们将非线性强迫项f引入到式(1)中,得到式(2)(3):
上述方案中设置初始参数包括目标位置g,弹性常数αy,***阻尼项βy,时间缩放因子τ,f为非线性强迫项,使得***生成任意非线性的复杂运动。根据式(2)可以逆向推导得出示范轨迹中非线性强迫项,如公式(4)所示:
步骤A40,基于所述第一强迫项,结合设定的学习路径的起始位置、目标位置,通过局部加权法获取每个基函数的最佳权重值,并构建所述学习路径对应的非线性强迫项,作为第二强迫项;
在本实施例中,根据机器人的初始任务设定动态运动基元方法的相关初始参数,并给出机器人学习的起始位置和目标位置,以及所计算出的最佳权重值,如此便可通过动态运动基元模型生成一条学习轨迹,该轨迹具有示范轨迹的特性,即运动趋势与原示范轨迹基本相同。
其中,计算学习轨迹的非线性强迫项,如公式(5)(6)所示:
其中,f表示学习路径对应的非线性强迫项的实际值,N表示基函数的个数,ψi表示服从中心为ci,方差为hi的高斯分布的基函数,x表示相位变量,ωi表示第i个基函数的权重,i表示下标,T表示转置,y1、g1表示学习轨迹对应的起始位置、目标位置。
可以看出,基函数ψi通过加权相加,组合成强迫函数f。由于基函数ψi是非线性的,因此强迫函数f和整个动态运动基元***也是非线性的。式(6)表明基函数ψi服从中心为ci,方差为hi的高斯分布。ωi为基函数权重,N为基函数个数,基函数个数越多,泛化目标轨迹越平滑。
基函数权重,其计算过程如公式(7)(8)(9)(10)所示:
S=(ξ(1) ξ(2) ... ξ(p))T (8)
ξ=x(g1-y1) (9)
其中,ψi表示服从中心为ci,方差为hi的高斯分布的基函数,i表示下标,T表示转置,y1、g1分别表示学习轨迹对应的起始位置、目标位置,p表示数量,为设定值。
如图3所示,一条示范轨迹(黑色曲线),一条为学习轨迹(灰色曲线),该轨迹具有示范轨迹的特性,即运动趋势与原示范轨迹基本相同。
步骤A50,在所述第一模型中加入所述第二强迫项、预构建的加速度排斥项,构建带有避障功能的动态运动基元模型,作为最终构建的动态运动基元模型;所述加速度排斥项基于人工势场的负梯度构建。
人工势场法是一种常见的在线避障方法。在本发明中,势场被定义在障碍物周围,同时势场的梯度对机器人产生排斥力。这种方法在移动机器人的运动规划中比较常见,也同样被用到机器人执行器中。
本发明关注机械臂末端执行器的运动,相比于关节空间,在执行器空间中,障碍物的位置和势场更容易得到,因此,在执行其空间中使用DMPs只需要添加一个排斥项便可得到带有避障功能的动态运动基元模型。这个加法允许生成的运动路径被势函数的属性改变,每个障碍物在运动点处创建一个势场U(y),即 表示加速度排斥项对应的实际值。
我们可以根据实际任务需要将工作环境中的障碍物位置点设置为斥力场Urep(y),将任务目标点设置为引力场Uatt(y),则其运动过程中受到总力场U(y)的影响。在式中的附加项由势场的梯度给出,即某点y处的势函数U(y)为引力势和斥力势之和,如公式(12)所示:
U(y)=Uatt(y)+Urep(y) (12)
引力势函数,如式(13)所示:
斥力势函数如式(14)所示:
其中,表示加速度排斥项对应的实际值,U(y)表示在点y处的势函数,Urep(y)、Uatt(y)表示在点y处的引力势、斥力势,表示引力增益,d(y,g1)表示当前点y到目标点g1之间的距离,η表示斥力增益,D(y)表示点y与最近障碍物之间的距离,Q表示障碍物距离作用阈值,大于此距离的障碍物不会产生斥力影响。
在双臂机器人操作过程中,会出现障碍物与目标点距离相近的情况,在这种情况下,人工势场法会出现目标不可达的情况。针对这种情况,我们对斥力函数进行改进,在原斥力函数中,加入一个机器人与目标点之间的相对距离项,如上式(14),使得机器人向目标点运动过程中引力和斥力同时趋近于0,这样机器人到达目标点时所受合力为0,则人工势场法中的目标不可达的问题解决。
如此便将人工势场法应用到动态运动基元的方法中,使得二阶***中包含排斥加速度项,使得生成的轨迹点远离障碍物,如此生成的轨迹不但拥有预期的运动趋势,还可以同时达到避障的效果。
基于构建好的带有避障功能的动态运动基元模型,可以根据不同轨迹的起始位置、目标位置,计算不同轨迹的位移、速度、加速度信息,不用重新训练样本而保持原来样本轨迹的特性到达新的目标位置,而且该过程并非针对某一具体任务,具有泛化推广的能力。
2、基于动态运动基元和人工势场的双臂机器人轨迹规划方法
步骤S10,获取双臂机器人待路径规划的目标位置,作为输入数据;
在本实施例中,获取双臂机器人待路径规划的目标位置。
步骤S20,基于所述输入数据,双臂机器人通过预构建的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至所述目标位置。
在本实施例中,双臂机器人通过上述构建的带有避障功能的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至目标位置。
本发明第二实施例的一种基于动态运动基元和人工势场的双臂机器人轨迹规划***,如图2所示,包括:位置获取模块100、路径规划输出模块200;
所述位置获取模块100,配置为获取双臂机器人待路径规划的目标位置,作为输入数据;
所述路径规划输出模块200,配置为基于所述输入数据,双臂机器人通过预构建的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至所述目标位置;
其中,所述动态运动基元模型,其构建方法为:
步骤A10,基于双臂机器人的D-H参数表,构建双臂机器人模型并通过蒙特卡洛算法求解双臂机器人的工作空间;
步骤A20,在所述工作空间中设置起始位置、目标位置及对应的示范路径,并实时采集双臂机器人沿所述示范路径移动时的轨迹运动数据,作为第一数据;所述轨迹运动数据包括位移、速度、加速度;
步骤A30,基于所述第一数据,通过预构建的第一模型,得到示范路径对应的非线性强迫项,作为第一强迫项;所述第一模型为不包含强迫项的离散运动的动态运动基元模型;
步骤A40,基于所述第一强迫项,结合设定的学习路径的起始位置、目标位置,通过局部加权法获取每个基函数的最佳权重值,并构建所述学习路径对应的非线性强迫项,作为第二强迫项;
步骤A50,在所述第一模型中加入所述第二强迫项、预构建的加速度排斥项,构建带有避障功能的动态运动基元模型,作为最终构建的动态运动基元模型;所述加速度排斥项基于人工势场的负梯度构建。
所述技术领域的技术人员可以清楚的了解到,为描述的方便和简洁,上述描述的***的具体的工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的基于动态运动基元和人工势场的双臂机器人轨迹规划***,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的一种存储装置,其中存储有多条程序,所述程序适用于由处理器加载并实现上述的基于动态运动基元和人工势场的双臂机器人轨迹规划方法。
本发明第四实施例的一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的基于动态运动基元和人工势场的双臂机器人轨迹规划方法。
所述技术领域的技术人员可以清楚的了解到,未描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (10)
1.一种基于动态运动基元和人工势场的双臂机器人轨迹规划方法,其特征在于,该方法包括以下步骤:
步骤S10,获取双臂机器人待路径规划的目标位置,作为输入数据;
步骤S20,基于所述输入数据,双臂机器人通过预构建的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至所述目标位置;
其中,所述动态运动基元模型,其构建方法为:
步骤A10,基于双臂机器人的D-H参数表,构建双臂机器人模型并通过蒙特卡洛算法求解双臂机器人的工作空间;
步骤A20,在所述工作空间中设置起始位置、目标位置及对应的示范路径,并实时采集双臂机器人沿所述示范路径移动时的轨迹运动数据,作为第一数据;所述轨迹运动数据包括位移、速度、加速度;
步骤A30,基于所述第一数据,通过预构建的第一模型,得到示范路径对应的非线性强迫项,作为第一强迫项;所述第一模型为不包含强迫项的离散运动的动态运动基元模型;
步骤A40,基于所述第一强迫项,结合设定的学习路径的起始位置、目标位置,通过局部加权法获取每个基函数的最佳权重值,并构建所述学习路径对应的非线性强迫项,作为第二强迫项;
步骤A50,在所述第一模型中加入所述第二强迫项、预构建的加速度排斥项,构建带有避障功能的动态运动基元模型,作为最终构建的动态运动基元模型;所述加速度排斥项基于人工势场的负梯度构建。
8.一种基于动态运动基元和人工势场的双臂机器人轨迹规划***,其特征在于,该***包括位置获取模块、路径规划输出模块;
所述位置获取模块,配置为获取双臂机器人待路径规划的目标位置,作为输入数据;
所述路径规划输出模块,配置为基于所述输入数据,双臂机器人通过预构建的动态运动基元模型得到对应的规划路径,并沿该规划路径移动至所述目标位置;
其中,所述动态运动基元模型,其构建方法为:
步骤A10,基于双臂机器人的D-H参数表,构建双臂机器人模型并通过蒙特卡洛算法求解双臂机器人的工作空间;
步骤A20,在所述工作空间中设置起始位置、目标位置及对应的示范路径,并实时采集双臂机器人沿所述示范路径移动时的轨迹运动数据,作为第一数据;所述轨迹运动数据包括位移、速度、加速度;
步骤A30,基于所述第一数据,通过预构建的第一模型,得到示范路径对应的非线性强迫项,作为第一强迫项;所述第一模型为不包含强迫项的离散运动的动态运动基元模型;
步骤A40,基于所述第一强迫项,结合设定的学习路径的起始位置、目标位置,通过局部加权法获取每个基函数的最佳权重值,并构建所述学习路径对应的非线性强迫项,作为第二强迫项;
步骤A50,在所述第一模型中加入所述第二强迫项、预构建的加速度排斥项,构建带有避障功能的动态运动基元模型,作为最终构建的动态运动基元模型;所述加速度排斥项基于人工势场的负梯度构建。
9.一种存储装置,其中存储有多条程序,其特征在于,所述程序适用于由处理器加载并执行以实现权利要求1-7任一项所述的基于动态运动基元和人工势场的双臂机器人轨迹规划方法。
10.一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;其特征在于,所述程序适用于由处理器加载并执行以实现权利要求1-7任一项所述的基于动态运动基元和人工势场的双臂机器人轨迹规划方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011399548.XA CN112549028A (zh) | 2020-12-02 | 2020-12-02 | 基于动态运动基元和人工势场的双臂机器人轨迹规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011399548.XA CN112549028A (zh) | 2020-12-02 | 2020-12-02 | 基于动态运动基元和人工势场的双臂机器人轨迹规划方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112549028A true CN112549028A (zh) | 2021-03-26 |
Family
ID=75047995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011399548.XA Pending CN112549028A (zh) | 2020-12-02 | 2020-12-02 | 基于动态运动基元和人工势场的双臂机器人轨迹规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112549028A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113043251A (zh) * | 2021-04-23 | 2021-06-29 | 江苏理工学院 | 一种机器人示教再现轨迹学习方法 |
CN113910236A (zh) * | 2021-10-29 | 2022-01-11 | 长安大学 | 移动双臂机器人运动规划方法、***、设备及介质 |
CN115495882A (zh) * | 2022-08-22 | 2022-12-20 | 北京科技大学 | 一种非平坦地形下的机器人运动基元库构建方法及装置 |
CN115524997A (zh) * | 2022-09-28 | 2022-12-27 | 山东大学 | 基于强化与模仿学习的机器人动态操作布料方法及*** |
CN116872212A (zh) * | 2023-08-14 | 2023-10-13 | 山东工商学院 | 一种基于A-Star算法和改进人工势场法的双机械臂避障规划方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106444738A (zh) * | 2016-05-24 | 2017-02-22 | 武汉科技大学 | 基于动态运动基元学习模型的移动机器人路径规划方法 |
CN110908373A (zh) * | 2019-11-11 | 2020-03-24 | 南京航空航天大学 | 一种基于改进人工势场的智能车辆轨迹规划方法 |
KR20200072592A (ko) * | 2018-12-03 | 2020-06-23 | 한국생산기술연구원 | 로봇용 학습 프레임워크 설정방법 및 이를 수행하는 디지털 제어 장치 |
CN111736611A (zh) * | 2020-07-06 | 2020-10-02 | 中国计量大学 | 一种基于a*算法和人工势场算法的移动机器人路径规划方法 |
KR20200130091A (ko) * | 2019-05-10 | 2020-11-18 | 한국전자통신연구원 | 딥러닝을 이용한 로봇의 장애물 회피 경로 생성 방법 및 장치 |
-
2020
- 2020-12-02 CN CN202011399548.XA patent/CN112549028A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106444738A (zh) * | 2016-05-24 | 2017-02-22 | 武汉科技大学 | 基于动态运动基元学习模型的移动机器人路径规划方法 |
KR20200072592A (ko) * | 2018-12-03 | 2020-06-23 | 한국생산기술연구원 | 로봇용 학습 프레임워크 설정방법 및 이를 수행하는 디지털 제어 장치 |
KR20200130091A (ko) * | 2019-05-10 | 2020-11-18 | 한국전자통신연구원 | 딥러닝을 이용한 로봇의 장애물 회피 경로 생성 방법 및 장치 |
CN110908373A (zh) * | 2019-11-11 | 2020-03-24 | 南京航空航天大学 | 一种基于改进人工势场的智能车辆轨迹规划方法 |
CN111736611A (zh) * | 2020-07-06 | 2020-10-02 | 中国计量大学 | 一种基于a*算法和人工势场算法的移动机器人路径规划方法 |
Non-Patent Citations (2)
Title |
---|
AUKE JAN IJSPEERT等: "Dynamical Movement Primitives: Learning Attractor Models for Motor Behaviors", 《2013 MASSACHUSETTS INSTITUTE OF TECHNOLOGY》 * |
DAE-HYUNG PARK等: "Movement reproduction and obstacle avoidance with dynamic movement primitives and potential fields", 《2008 8TH IEEE-RAS INTERNATIONAL CONFERENCE ON HUMANOID ROBOTS》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113043251A (zh) * | 2021-04-23 | 2021-06-29 | 江苏理工学院 | 一种机器人示教再现轨迹学习方法 |
CN113910236A (zh) * | 2021-10-29 | 2022-01-11 | 长安大学 | 移动双臂机器人运动规划方法、***、设备及介质 |
CN113910236B (zh) * | 2021-10-29 | 2022-11-29 | 长安大学 | 移动双臂机器人运动规划方法、***、设备及介质 |
CN115495882A (zh) * | 2022-08-22 | 2022-12-20 | 北京科技大学 | 一种非平坦地形下的机器人运动基元库构建方法及装置 |
CN115495882B (zh) * | 2022-08-22 | 2024-02-27 | 北京科技大学 | 一种非平坦地形下的机器人运动基元库构建方法及装置 |
CN115524997A (zh) * | 2022-09-28 | 2022-12-27 | 山东大学 | 基于强化与模仿学习的机器人动态操作布料方法及*** |
CN115524997B (zh) * | 2022-09-28 | 2024-05-14 | 山东大学 | 基于强化与模仿学习的机器人动态操作布料方法及*** |
CN116872212A (zh) * | 2023-08-14 | 2023-10-13 | 山东工商学院 | 一种基于A-Star算法和改进人工势场法的双机械臂避障规划方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112549028A (zh) | 基于动态运动基元和人工势场的双臂机器人轨迹规划方法 | |
Chebotar et al. | Actionable models: Unsupervised offline reinforcement learning of robotic skills | |
Nguyen-Tuong et al. | Using model knowledge for learning inverse dynamics | |
Stulp et al. | Hierarchical reinforcement learning with movement primitives | |
Billard et al. | Discovering optimal imitation strategies | |
Pastor et al. | From dynamic movement primitives to associative skill memories | |
Ladd et al. | Motion Planning in the Presence of Drift, Underactuation and Discrete System Changes. | |
Rai et al. | Learning feedback terms for reactive planning and control | |
Fanger et al. | Gaussian processes for dynamic movement primitives with application in knowledge-based cooperation | |
Chen et al. | Robot learning from multiple demonstrations with dynamic movement primitive | |
Torabi et al. | Sample-efficient adversarial imitation learning from observation | |
Kim et al. | Learning and generalization of dynamic movement primitives by hierarchical deep reinforcement learning from demonstration | |
Yuan et al. | Hierarchical dynamic movement primitive for the smooth movement of robots based on deep reinforcement learning | |
Palm et al. | Particle swarm optimization of potential fields for obstacle avoidance | |
Li et al. | Model-based reinforcement learning for robot control | |
Mei et al. | Mobile robots path planning based on dynamic movement primitives library | |
Pérez-Dattari et al. | Stable motion primitives via imitation and contrastive learning | |
Zhou et al. | Generalizable long-horizon manipulations with large language models | |
Gayle et al. | Efficient motion planning of highly articulated chains using physics-based sampling | |
Claassens | An RRT-based path planner for use in trajectory imitation | |
Naderi et al. | Learning physically based humanoid climbing movements | |
Nikitenko et al. | Rrts postprocessing for uncertain environments | |
Peng et al. | Moving object grasping method of mechanical arm based on deep deterministic policy gradient and hindsight experience replay | |
Tang et al. | Reinforcement learning for robots path planning with rule-based shallow-trial | |
Jia et al. | Research and implementation of complex task based on DMP |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210326 |