CN107414830A - 一种运载机器人手臂操控多层映射智能控制方法及*** - Google Patents
一种运载机器人手臂操控多层映射智能控制方法及*** Download PDFInfo
- Publication number
- CN107414830A CN107414830A CN201710636699.4A CN201710636699A CN107414830A CN 107414830 A CN107414830 A CN 107414830A CN 201710636699 A CN201710636699 A CN 201710636699A CN 107414830 A CN107414830 A CN 107414830A
- Authority
- CN
- China
- Prior art keywords
- value
- crawl
- individual
- distance
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种运载机器人手臂操控多层映射智能控制方法及***,该方法包括:1:对运载机器人手臂进行多次抓取训练,获得运载机器人在不同固定抓取点完成抓取任务的抓取样本集;步骤2:利用抓取样本集构建并训练运载机器人手臂关节控制值预测模型;步骤3:从抓取样本集中随机选取测试集,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;步骤4:利用运载机器人基座与抓取台底端边缘之间的距离选取对应的最优手臂关节控制值预测模型,输出所有关节的控制值,完成抓取任务。本发明通过建立机器人基座、抓取台之间距离与机器人手臂姿态之间的映射,避免了繁琐的运动学方程建立;获取准确的关节控制值,控制灵活。
Description
技术领域
本发明属于机器人控制领域,特别涉及一种运载机器人手臂操控多层映射智能控制方法及***。
背景技术
近些年来,移动机器人被广泛应用于室内运输,如医院利用移动机器人运输医疗设备、超市的服务型机器人、工厂制造环境下的机器人等。而机器人手臂是机器人机械***的重要组成部分,也是机器人实现其服务功能的主要载体。
机械手臂的控制问题一直是该行业的难点问题。早期,大部分手臂采用PID控制,能够实现中等以下速度的跟踪,但是在高精度、快速的场合下,传统的PID控制并不能满足其控制要求。在这种情况下,出现了模糊控制、神经网络控制、模糊神经网络控制、专家控制等智能控制方法。
如今,神经网络广泛应用于机器人手臂控制:通过求解运动学方程来获得训练样本,利用神经网络建立手臂关节空间坐标与笛卡尔空间坐标的映射关系。然而通过求解运动学方程获得大量样本的方法并不实用,而且机器人手臂关节处的电机更换会使得之前构建的神经网络需重新训练。因此,机器人的维护存在着极大的不便。基于上述原因,迫切地需要一种更为智能的手臂控制方法。
发明内容
本发明提供了一种运载机器人手臂操控多层映射智能控制方法及***,其的目的在于,克服上述现有技术中存在的问题,通过建立机器人基座、抓取台之间距离与机器人手臂姿态之间的映射,避免繁琐的运动学方程建立;通过从抓取样本集中随机选取测试集,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;输入不同的运载机器人基座与抓取台底端边缘之间的距离,选择最优手臂关节控制值预测模型对运载机器人手臂关节值进行预测,提高了手臂关节的控制精度。
一种机器人手臂操控多层映射智能控制方法,包括以下步骤:
步骤1:当运载机器人位于指定抓取距离区间内,利用远程服务器控制运载机器人手臂进行抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人基座与抓取台底端边缘之间的距离和在该距离区间中手臂关节控制值矩阵,所述手臂控制矩阵大小为N*M,N表示运载机器人手臂关节个数,M表示抓取过程手臂动作次数;
每个抓取样本中包含N个关节的控制值;
步骤2:利用抓取样本集训练运载机器人手臂关节控制值预测模型;
将运载机器人基座到抓取台底部边缘的距离作为训练模型的输入数据,机器人手臂对应所有关节控制值矩阵作为训练模型的输出数据,构建各种初始手臂关节控制值预测模型;
所述训练模型至少包括小波神经网络模型和Elman神经网络模型;
步骤3:从抓取样本集中利用随机选取不同的运载机器人基座到抓取台底部边缘的距离将抓取样本集划分为各类距离样本测试集;
所述距离样本测试集中所有样本对应的距离形成的距离范围覆盖抓取距离区间;
距离样本测试集中样本对应的距离是指抓取样本中运载机器人基座与抓取台底端边缘之间的距离;
将运载机器人基座到抓取台底部边缘的距离相同的抓取样本划分到同一类距离样本测试集;
步骤4:构建最优手臂关节控制值预测模型;
依次利用每一类距离样本测试集中的每个样本测试各种手臂关节控制值预测模型,以距离样本测试集中所有样本手臂关节控制值的预测值和实际值之差的之间的均方差样本均值最小为选取依据,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;
步骤5:利用运载机器人基座与抓取台底端边缘之间的距离选取对应的最优手臂关节控制值预测模型,得到手臂关节的控制值,输出运载机器人手臂所有关节的控制值至运载机器人,完成抓取任务。;
当待控制的运载机器人基座与抓取台底端边缘之间的实时距离与步骤4中不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型对应的距离均不匹配时,选取与实时距离最近的最优手臂关节控制值预测模型。
运用多种神经网络的对手臂的抓取进行控制,不同的距离值选择精度更加高的组合进行预测,提高了***的稳定性。
建立距离与机器人手臂姿态之间的映射,而不需要建立复杂的运动学方程。同时,手臂关节处电机的更换不会造成神经网络训练的失效,方便了机器人的维护。
进一步地,采用小波神经网络模型训练构建的初始手臂关节控制值预测模型是以机器人基座超声波传感器测得的实时距离作为输入数据,机器人手臂关节控制值矩阵作为输出数据,对小波神经网络模型进行训练获得:
其中,所使用的小波神经网络模型输入层节点个数为2,隐含层个数为4,输出层节点个数为4;隐含层小波神经元采用Mexican Hat小波函数,输出层神经元的传递函数采用Sigmoid函数;训练过程中的最大迭代次数设置为100,训练学习率为0.1,阈值为0.004;
所使用的小波神经网络模型的权值、阈值和伸缩平移系数采用遗传算法或思维进化算法进行优化选择。
进一步地,所述小波神经网络模型的权值、阈值和伸缩平移系数采用遗传算法进化进行优化选择的过程如下:
步骤3.1:种群个体的基因作为权值、阈值和伸缩平移系数,初始化种群;
种群规模的取值范围为[50,200],交叉概率的取值范围为[0.3,0.5],变异概率的取值范围为[0.05,0.15],最大迭代次数的取值范围为[100,500],最大搜索精度的取值范围为[0.005,0.1];
步骤3.2:设定适应度函数,并获取种群中的最优个体;
将种群个体基因对应的权值、阈值和伸缩平移系数代入基于小波神经网络的初始手臂关节控制值预测模型中,并利用种群个体基因确定的基于小波神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第一适应度函数f1(x);
步骤3.3:计算每个个体的适应值,每个种群个体适应度最大者进去子种群;子种群中的个体不进行交叉变异操作,直接保留到下一代;
步骤3.4:采用轮盘赌法选择交叉算子和变异算子;
步骤3.5:利用交叉算子和变异算子对种群中除子种群外的个体进行更新;
步骤3.6:计算更新后的所有个体的适应度值,判断是否达到最大迭代次数或者最大搜索精度,若达到,则以适应度最大的个体作为最优个体,输出最优个体对应的小波神经网络的权值、阈值和伸缩平移系数,否则返回步骤3.4。
进一步地,所述小波神经网络模型的权值、阈值和伸缩平移系数采用思维进化算法进化进行优化选择的过程如下:
步骤4.1:每个个体向量作为小波神经网络模型的权值、阈值和伸缩平移系数组成,初始化种群;
个体种群规模S的取值范围为[200,800]、优胜个体数量为5,临时个体数量为5;
步骤4.2:设定适应度函数;
将个体向量对应的权值、阈值和伸缩平移系数代入基于小波神经网络的初始手臂关节控制值预测模型中,并利用个体向量确定的基于小波神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值之差的平均值E,构建第二适应度函数f2(x)计算出每个个体的得分;f2(x)=1/(E+1)
步骤4.3:计算每个个体的适应度值,生成子群体;
适应度最高的前5个个体作为优胜个体,前第6到第10共5个个体作为临时个体;依次以所选优胜个体和临时个体为中心,随机生成5个优胜子群体和5个临时子群体,每个子群体的个体数目为S/10;
步骤4.4:依次对个体进行趋同操作;
若一个子群体不再产生新的胜者,表示子群体成熟,则竞争结束,该子群体的得分就是子群体中最优个体的得分,并把得分张贴在全局公告板上,直到所有子群体全部成熟,趋同过程结束;
步骤4.5:依次对个体进行异化操作;
从全局公告板上,比较优胜子群体和临时子群体的得分高低,完成子群体间的替换、废弃、个体释放的过程,得到全局最优个体及其得分;
步骤4.6:判断是否达到最大迭代次数或者最大搜索精度,达到则输出最优个体,作为小波神经网络的权值、阈值和伸缩平移系数,否则返回步骤4.4。
进一步地,采用Elman神经网络模型训练构建的初始手臂关节控制值预测模型是以机器人基座超声波传感器测得的实时距离作为输入数据,机器人手臂关节控制值作为输出数据,对Elman神经网络模型进行训练获得:
其中,所使用的Elman神经网络模型输入层节点个数为2,隐含层个数为5,输出层节点个数为4,承接层节点个数为5;隐含层函数采用tansig,输出层神经元的传递函数采用logsig,最大迭代次数设置为100,训练学习率为0.1,阈值为0.001;
其中,所使用的Elman神经网络模型的权值和阈值分别采用水循环算法WCA或带有自适应权值的量子粒子群算法AG-QPSO进行优化选择。
进一步地,所述Elman神经网络模型的权值和阈值采用水循环算法WCA算法进行优化选择的过程如下:
步骤6.1:每个降雨层作为Elman神经网络模型的权值和阈值,初始化降雨层种群;
设定降雨层种群数量的取值范围为[20,100],海洋数量为1,河流数量的取值范围为[5,30],最大迭代次数的取值范围为[200,1000]、极小值的取值范围为[0.005,0.1];
步骤6.2:设定适应度函数;
将降雨层对应的权值和阈值代入基于Elman神经网络的初始手臂关节控制值预测模型中,并利用降雨层确定的基于Elman神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第三适应度函数;
步骤6.3:以适应度大的降雨层作为大海,以适应度次小的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;
步骤6.4:如果溪流解优于河流解,则溪流与河流交换位置,如果河流解优于海洋解,则河流与海洋交换位置;然后使溪流流入河流,使河流汇入海洋;
步骤6.5:判断河流解与海洋解之间的差值绝对值是否小于设定的极小值,如果小于,则认为满足降雨条件,从种群中去掉该河流,并重新进行降雨过程,随机生成新的降雨层加入种群,返回步骤6.3继续一次迭代,否则,进入步骤6.6;
步骤6.6:判断是否到达最大迭代次数,若满足则输出最优的降雨层对应的参数,输出Elman神经网络模型的权值和阈值,若不满足则进入步骤6.3继续下一次迭代。
进一步地,所述Elman神经网络模型的权值和阈值采用带有自适应权值的量子粒子群算法AG-QPSO进行优化选择的过程如下:
步骤7.1:量子粒子群中每个个体的位置向量设置为Elman神经网络模型的权值和阈值,将种群个体的每个参数初始化为[-1 1]的随机数;
量子粒子群种群的个数的取值范围为[20,80],量子粒子群的粒子个数的取值范围为[10,50],最大迭代次数的取值范围为[200,1000],组建精英种群的迭代次数的取值范围为[50,200],早熟收敛判断阈值的取值范围为[0.01,0.05],种群最差粒子变异比例δ%的取值范围为[2%,6%];
步骤7.2:设定适应度函数,确定最优量子粒子个***置向量;
将量子粒子个***置向量对应的权值和阈值代入基于Elman神经网络的初始手臂关节控制值预测模型中,并利用量子粒子个***置向量确定的基于Elman神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第四适应度函数;
步骤7.3:运行早熟收敛判断机制;
如果量子粒子群群体适应度方差小于早熟收敛判断阈值,则对δ%的最差粒子和群体极值进行变异,并对主导全局极值进行更新;
步骤7.4:判断是否组建精英种群;
当迭代次数大于精英种群迭代次数时,则通过种群间的信息共享,提取各种群的极值组建精英种群,转入步骤7.8,否则转入步骤7.5;
步骤7.5:更新各种群粒子参数;
步骤7.6:重新计算并比较每个粒子的适应值,如果优于当前的个体极值,则更新个体极值;比较全局极值,如果优于当前的群体极值,则更新全局极值,转入步骤7.2;
步骤7.7:精英种群继续进化;
步骤7.8:判断是否满足最大迭代次数,若满足则退出,否则转入步骤7.8,直到找到全局最优值,输出Elman神经网络模型的权值和阈值。
一种机器人手臂操控多层映射智能控制***,包括:
抓取样本集获取单元,当运载机器人位于指定抓取距离区间内,利用远程服务器控制运载机器人手臂进行抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人基座与抓取台底端边缘之间的距离和在该距离区间中手臂关节控制值矩阵,所述手臂控制矩阵大小为N*M,N表示运载机器人手臂关节个数,M表示抓取过程手臂动作次数;
手臂关节控制值预测模型构建单元,利用抓取样本集训练运载机器人手臂关节控制值预测模型;
将运载机器人基座到抓取台底部边缘的距离作为训练模型的输入数据,机器人手臂对应所有关节控制值矩阵作为训练模型的输出数据,构建各种初始手臂关节控制值预测模型;
所述训练模型至少包括小波神经网络模型和Elman神经网络模型;
距离样本测试集选取单元,从抓取样本集中随机选取不同的运载机器人基座到抓取台底部边缘的距离将抓取样本构成距离样本测试集;
所述距离样本测试集中所有样本对应的距离形成的距离范围覆盖抓取距离区间;
距离样本测试集中样本对应的距离是指抓取样本中运载机器人基座与抓取台底端边缘之间的距离;
最优手臂关节控制值预测模型选取单元,依次利用距离样本测试集中的每个样本测试各种手臂关节控制值预测模型,以距离样本测试集中所有样本手臂关节控制值的预测值和实际值之间的均方差最小为选取依据,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;
控制单元,利用运载机器人基座与抓取台底端边缘之间的距离选取对应的最优手臂关节控制值预测模型,得到手臂关节的控制值,输出运载机器人手臂所有关节的控制值至运载机器人,完成抓取任务;
当待控制的运载机器人基座与抓取台底端边缘之间的实时距离与步骤4中不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型对应的距离均不匹配时,选取与实时距离最近的最优手臂关节控制值预测模型。
进一步地,所述指定区域设置为机器人基座距离抓取台底部边缘距离18-28cm的直线区域内。
进一步地,所述运载机器人基座与抓取台底部边缘距离采用运载机器人自带的超声波传感器进行测量,且所述超声波传感器位于运载机器人基座的两侧,对称设置。
机器人基座的超声波传感器是一般用作避障。在本发明的控制方法下,不需要在机器人身上增加任何装置,将自带的超声波传感器开发出一种新的用途。
在利用远程服务器调试手臂的每个关节控制值时,发现手臂从开始到完成抓取动作的整个过程中发现,只有4个关节的控制值会变化,因此N值取4。
应用本发明所述方法利用远程服务器调试手臂获取样本,不但可以避免反求动力学方程,而且可以剔除控制值不变的关节,简化网络和计算。
有益效果
本发明提供了一种运载机器人手臂操控多层映射智能控制方法及***,建立距离值和手臂姿态之间映射关系的机器人手臂抓取的控制方法,该方法的优点在于:
1、运用该控制方法,建立了机器人基座、抓取台之间距离与机器人手臂姿态之间的映射,而不需要建立复杂的运动学方程。
2、运用预测模型对手臂的抓取进行控制,不同的运载机器人基座到抓取台底部边缘的距离选择最优的预测模型进行预测,提高了***的稳定性。
3、获取样本的方法更加实用。利用远程服务器控制机器人手臂进行抓取,剔除了在抓取过程中,手臂关节控制值不变的关节。
该控制***结构简单,操作方便,具有较大的推广价值。
附图说明
图1为应用本发明所述方案得到的最优预测模型与距离区间的对应示意图;
图2为运载机器人抓取过程示意图;
图3为小波神经网络模型结构示意图;
图4为Elman神经网络模型结构示意图;
图5为预测模型训练过程示意图;
图6为预测模型最优选取过程示意图;
图7为本发明所述控制方法流程图。
具体实施方式
下面将结合附图和实施例,对本发明做进一步的说明。
如图7和图2所示,一种机器人手臂操控多层映射智能控制方法,包括以下步骤:
步骤1:当运载机器人位于指定抓取距离区间内,利用远程服务器控制运载机器人手臂进行抓取训练,获得包含50组抓取样本的抓取样本集;
每个抓取样本包括运载机器人基座与抓取台底端边缘之间的距离和在该距离区间中手臂关节控制值矩阵,所述手臂控制矩阵大小为4*10,4表示运载机器人手臂关节个数,10表示抓取过程手臂动作次数;
每个抓取样本中包含4个关节的控制值;
步骤2:利用抓取样本集训练运载机器人手臂关节控制值预测模型,如图5所示;
将运载机器人基座到抓取台底部边缘的距离作为训练模型的输入数据,机器人手臂对应所有关节控制值矩阵作为训练模型的输出数据,构建各种初始手臂关节控制值预测模型;
所述训练模型至少包括小波神经网络模型和Elman神经网络模型;
步骤3:从抓取样本集中利用随机选取不同的运载机器人基座到抓取台底部边缘的距离将抓取样本集划分为17类距离样本测试集;
所述距离样本测试集中所有样本对应的距离形成的距离范围覆盖抓取距离区间;
距离样本测试集中样本对应的距离是指抓取样本中运载机器人基座与抓取台底端边缘之间的距离;
将运载机器人基座到抓取台底部边缘的距离相同的抓取样本划分到同一类距离样本测试集;
步骤4:构建最优手臂关节控制值预测模型,如图6所示;
依次利用每一类距离样本测试集中的每个样本测试各种手臂关节控制值预测模型,以距离样本测试集中所有样本手臂关节控制值的预测值和实际值之差的之间的均方差样本均值最小为选取依据,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;
步骤5:利用运载机器人基座与抓取台底端边缘之间的距离选取对应的最优手臂关节控制值预测模型,得到手臂关节的控制值,输出运载机器人手臂所有关节的控制值至运载机器人,完成抓取任务;
当待控制的运载机器人基座与抓取台底端边缘之间的实时距离与步骤4中不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型对应的距离均不匹配时,选取与实时距离最近的最优手臂关节控制值预测模型,如图1所示。
运用多种预测模型对手臂的抓取进行控制,输入不同的运载机器人基座到抓取台底部边缘的距离,选择最优的预测模型进行预测,提高了***的稳定性。
建立距离与机器人手臂姿态之间的映射,而不需要建立复杂的运动学方程。同时,手臂关节处电机的更换不会造成神经网络训练的失效,方便了机器人的维护。
如图3所示,采用小波神经网络模型训练构建的初始手臂关节控制值预测模型是以机器人基座超声波传感器测得的实时距离作为输入数据,机器人手臂关节控制值矩阵作为输出数据,对小波神经网络模型进行训练获得:
其中,所使用的小波神经网络模型输入层节点个数为2,隐含层个数为4,输出层节点个数为4;隐含层小波神经元采用Mexican Hat小波函数,输出层神经元的传递函数采用Sigmoid函数;训练过程中的最大迭代次数设置为100,训练学习率为0.1,阈值为0.004;
所使用的小波神经网络模型的权值、阈值和伸缩平移系数采用遗传算法或思维进化算法进行优化选择。
所述小波神经网络模型的权值、阈值和伸缩平移系数采用遗传算法进化进行优化选择的过程如下:
步骤3.1:种群个体的基因作为权值、阈值和伸缩平移系数,初始化种群;
种群规模的取值范围为[50,200],交叉概率的取值范围为[0.3,0.5],变异概率的取值范围为[0.05,0.15],最大迭代次数的取值范围为[100,500],最大搜索精度的取值范围为[0.005,0.1];
步骤3.2:设定适应度函数,并获取种群中的最优个体;
将种群个体基因对应的权值、阈值和伸缩平移系数代入基于小波神经网络的初始手臂关节控制值预测模型中,并利用种群个体基因确定的基于小波神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第一适应度函数f1(x);
步骤3.3:计算每个个体的适应值,每个种群个体适应度最大者进去子种群;子种群中的个体不进行交叉变异操作,直接保留到下一代;
步骤3.4:采用轮盘赌法选择交叉算子和变异算子;
步骤3.5:利用交叉算子和变异算子对种群中除子种群外的个体进行更新;
步骤3.6:计算更新后的所有个体的适应度值,判断是否达到最大迭代次数或者最大搜索精度,若达到,则以适应度最大的个体作为最优个体,输出最优个体对应的小波神经网络的权值、阈值和伸缩平移系数,否则返回步骤3.4。
所述小波神经网络模型的权值、阈值和伸缩平移系数采用思维进化算法进化进行优化选择的过程如下:
步骤4.1:每个个体向量作为小波神经网络模型的权值、阈值和伸缩平移系数组成,初始化种群;
个体种群规模S的取值范围为[200,800]、优胜个体数量为5,临时个体数量为5;
步骤4.2:设定适应度函数;
将个体向量对应的权值、阈值和伸缩平移系数代入基于小波神经网络的初始手臂关节控制值预测模型中,并利用个体向量确定的基于小波神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值之差的平均值E,构建第二适应度函数f2(x)计算出每个个体的得分;
f2(x)=1/(E+1)
步骤4.3:计算每个个体的适应度值,生成子群体;
适应度最高的前5个个体作为优胜个体,前第6到第10共5个个体作为临时个体;依次以所选优胜个体和临时个体为中心,随机生成5个优胜子群体和5个临时子群体,每个子群体的个体数目为S/10;
步骤4.4:依次对个体进行趋同操作;
若一个子群体不再产生新的胜者,表示子群体成熟,则竞争结束,该子群体的得分就是子群体中最优个体的得分,并把得分张贴在全局公告板上,直到所有子群体全部成熟,趋同过程结束;
步骤4.5:依次对个体进行异化操作;
从全局公告板上,比较优胜子群体和临时子群体的得分高低,完成子群体间的替换、废弃、个体释放的过程,得到全局最优个体及其得分;
步骤4.6:判断是否达到最大迭代次数或者最大搜索精度,达到则输出最优个体,作为小波神经网络的权值、阈值和伸缩平移系数,否则返回步骤4.4。
如图4所示,采用Elman神经网络模型训练构建的初始手臂关节控制值预测模型是以机器人基座超声波传感器测得的实时距离作为输入数据,机器人手臂关节控制值作为输出数据,对Elman神经网络模型进行训练获得:
其中,所使用的Elman神经网络模型输入层节点个数为2,隐含层个数为5,输出层节点个数为4,承接层节点个数为5;隐含层函数采用tansig,输出层神经元的传递函数采用logsig,最大迭代次数设置为100,训练学习率为0.1,阈值为0.001;
其中,所使用的Elman神经网络模型的权值和阈值分别采用水循环算法WCA或带有自适应权值的量子粒子群算法AG-QPSO进行优化选择。
所述Elman神经网络模型的权值和阈值采用水循环算法WCA算法进行优化选择的过程如下:
步骤6.1:每个降雨层作为Elman神经网络模型的权值和阈值,初始化降雨层种群;
设定降雨层种群数量的取值范围为[20,100],海洋数量为1,河流数量的取值范围为[5,30],最大迭代次数的取值范围为[200,1000]、极小值的取值范围为[0.005,0.1];
步骤6.2:设定适应度函数;
将降雨层对应的权值和阈值代入基于Elman神经网络的初始手臂关节控制值预测模型中,并利用降雨层确定的基于Elman神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第三适应度函数;
步骤6.3:以适应度大的降雨层作为大海,以适应度次小的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;
步骤6.4:如果溪流解优于河流解,则溪流与河流交换位置,如果河流解优于海洋解,则河流与海洋交换位置;然后使溪流流入河流,使河流汇入海洋;
步骤6.5:判断河流解与海洋解之间的差值绝对值是否小于设定的极小值,如果小于,则认为满足降雨条件,从种群中去掉该河流,并重新进行降雨过程,随机生成新的降雨层加入种群,返回步骤6.3继续一次迭代,否则,进入步骤6.6;
步骤6.6:判断是否到达最大迭代次数,若满足则输出最优的降雨层对应的参数,输出Elman神经网络模型的权值和阈值,若不满足则进入步骤6.3继续下一次迭代。
进一步地,所述Elman神经网络模型的权值和阈值采用带有自适应权值的量子粒子群算法AG-QPSO进行优化选择的过程如下:
步骤7.1:量子粒子群中每个个体的位置向量设置为Elman神经网络模型的权值和阈值,将种群个体的每个参数初始化为[-1 1]的随机数;
量子粒子群种群的个数的取值范围为[20,80],量子粒子群的粒子个数的取值范围为[10,50],最大迭代次数的取值范围为[200,1000],组建精英种群的迭代次数的取值范围为[50,200],早熟收敛判断阈值的取值范围为[0.01,0.05],种群最差粒子变异比例δ%的取值范围为[2%,6%];
步骤7.2:设定适应度函数,确定最优量子粒子个***置向量;
将量子粒子个***置向量对应的权值和阈值代入基于Elman神经网络的初始手臂关节控制值预测模型中,并利用量子粒子个***置向量确定的基于Elman神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第四适应度函数;
步骤7.3:运行早熟收敛判断机制;
如果量子粒子群群体适应度方差小于早熟收敛判断阈值,则对δ%的最差粒子和群体极值进行变异,并对主导全局极值进行更新;
步骤7.4:判断是否组建精英种群;
当迭代次数大于精英种群迭代次数时,则通过种群间的信息共享,提取各种群的极值组建精英种群,转入步骤7.8,否则转入步骤7.5;
步骤7.5:更新各种群粒子参数;
步骤7.6:重新计算并比较每个粒子的适应值,如果优于当前的个体极值,则更新个体极值;比较全局极值,如果优于当前的群体极值,则更新全局极值,转入步骤7.2;
步骤7.7:精英种群继续进化;
步骤7.8:判断是否满足最大迭代次数,若满足则退出,否则转入步骤7.8,直到找到全局最优值,输出Elman神经网络模型的权值和阈值。
一种机器人手臂操控多层映射智能控制***,包括:
抓取样本集获取单元,当运载机器人位于指定抓取距离区间内,利用远程服务器控制运载机器人手臂进行抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人基座与抓取台底端边缘之间的距离和在该距离区间中手臂关节控制值矩阵,所述手臂控制矩阵大小为4*10,4表示运载机器人手臂关节个数,10表示抓取过程手臂动作次数;
手臂关节控制值预测模型构建单元,利用抓取样本集训练运载机器人手臂关节控制值预测模型;
将运载机器人基座到抓取台底部边缘的距离作为训练模型的输入数据,机器人手臂对应所有关节控制值矩阵作为训练模型的输出数据,构建各种初始手臂关节控制值预测模型;
所述训练模型至少包括小波神经网络模型和Elman神经网络模型;
距离样本测试集选取单元,从抓取样本集中随机选取不同的运载机器人基座到抓取台底部边缘的距离将抓取样本构成距离样本测试集;
所述距离样本测试集中所有样本对应的距离形成的距离范围覆盖抓取距离区间;
距离样本测试集中样本对应的距离是指抓取样本中运载机器人基座与抓取台底端边缘之间的距离;
最优手臂关节控制值预测模型选取单元,依次利用距离样本测试集中的每个样本测试各种手臂关节控制值预测模型,以距离样本测试集中所有样本手臂关节控制值的预测值和实际值之间的均方差最小为选取依据,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;
控制单元,利用运载机器人基座与抓取台底端边缘之间的距离选取对应的最优手臂关节控制值预测模型,得到手臂关节的控制值,输出运载机器人手臂所有关节的控制值至运载机器人,完成抓取任务;
当待控制的运载机器人基座与抓取台底端边缘之间的实时距离与步骤4中不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型对应的距离均不匹配时,选取与实时距离最近的最优手臂关节控制值预测模型。
所述指定区域设置为机器人基座距离抓取台底部边缘距离18-28cm的直线区域内。
所述运载机器人基座与抓取台底部边缘距离采用运载机器人自带的超声波传感器进行测量,且所述超声波传感器位于运载机器人基座的两侧,对称设置。
机器人基座的超声波传感器是一般用作避障。在本发明的控制方法下,不需要在机器人身上增加任何装置,将自带的超声波传感器开发出一种新的用途。
在利用远程服务器调试手臂的每个关节控制值时,发现手臂从开始到完成抓取动作的整个过程中发现,只有4个关节的控制值会变化,因此N值取4。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (10)
1.一种机器人手臂操控多层映射智能控制方法,其特征在于,包括以下步骤:
步骤1:当运载机器人位于指定抓取距离区间内,利用远程服务器控制运载机器人手臂进行抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人基座与抓取台底端边缘之间的距离和在该距离区间中手臂关节控制值矩阵,所述手臂控制矩阵大小为N*M,N表示运载机器人手臂关节个数,M表示抓取过程手臂动作次数;
步骤2:利用抓取样本集训练运载机器人手臂关节控制值预测模型;
将运载机器人基座到抓取台底部边缘的距离作为训练模型的输入数据,机器人手臂对应所有关节控制值矩阵作为训练模型的输出数据,构建各种初始手臂关节控制值预测模型;
所述训练模型至少包括小波神经网络模型和Elman神经网络模型;
步骤3:从抓取样本集中利用随机选取不同的运载机器人基座到抓取台底部边缘的距离将抓取样本集划分为各类距离样本测试集;
所述距离样本测试集中所有样本对应的距离形成的距离范围覆盖抓取距离区间;
距离样本测试集中样本对应的距离是指抓取样本中运载机器人基座与抓取台底端边缘之间的距离;
将运载机器人基座到抓取台底部边缘的距离相同的抓取样本划分到同一类距离样本测试集;
步骤4:构建最优手臂关节控制值预测模型;
依次利用每一类距离样本测试集中的每个样本测试各种手臂关节控制值预测模型,以距离样本测试集中所有样本手臂关节控制值的预测值和实际值之差的之间的均方差样本均值最小为选取依据,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;
步骤5:利用运载机器人基座与抓取台底端边缘之间的距离选取对应的最优手臂关节控制值预测模型,得到手臂关节的控制值,输出运载机器人手臂所有关节的控制值至运载机器人,完成抓取任务;
当待控制的运载机器人基座与抓取台底端边缘之间的实时距离与步骤4中不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型对应的距离均不匹配时,选取与实时距离最近的最优手臂关节控制值预测模型。
2.根据权利要求1所述的方法,其特征在于,采用小波神经网络模型训练构建的初始手臂关节控制值预测模型是以机器人基座超声波传感器测得的实时距离作为输入数据,机器人手臂关节控制值矩阵作为输出数据,对小波神经网络模型进行训练获得:
其中,所使用的小波神经网络模型输入层节点个数为2,隐含层个数为4,输出层节点个数为4;隐含层小波神经元采用Mexican Hat小波函数,输出层神经元的传递函数采用Sigmoid函数;训练过程中的最大迭代次数设置为100,训练学习率为0.1,阈值为0.004;
所使用的小波神经网络模型的权值、阈值和伸缩平移系数采用遗传算法或思维进化算法进行优化选择。
3.根据权利要求2所述的方法,其特征在于,所述小波神经网络模型的权值、阈值和伸缩平移系数采用遗传算法进化进行优化选择的过程如下:
步骤3.1:种群个体的基因作为权值、阈值和伸缩平移系数,初始化种群;
种群规模的取值范围为[50,200],交叉概率的取值范围为[0.3,0.5],变异概率的取值范围为[0.05,0.15],最大迭代次数的取值范围为[100,500],最大搜索精度的取值范围为[0.005,0.1];
步骤3.2:设定适应度函数,并获取种群中的最优个体;
将种群个体基因对应的权值、阈值和伸缩平移系数代入基于小波神经网络的初始手臂关节控制值预测模型中,并利用种群个体基因确定的基于小波神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第一适应度函数f1(x);
步骤3.3:计算每个个体的适应值,每个种群个体适应度最大者进去子种群;子种群中的个体不进行交叉变异操作,直接保留到下一代;
步骤3.4:采用轮盘赌法选择交叉算子和变异算子;
步骤3.5:利用交叉算子和变异算子对种群中除子种群外的个体进行更新;
步骤3.6:计算更新后的所有个体的适应度值,判断是否达到最大迭代次数或者最大搜索精度,若达到,则以适应度最大的个体作为最优个体,输出最优个体对应的小波神经网络的权值、阈值和伸缩平移系数,否则返回步骤3.4。
4.根据权利要求2所述的方法,其特征在于,所述小波神经网络模型的权值、阈值和伸缩平移系数采用思维进化算法进化进行优化选择的过程如下:
步骤4.1:每个个体向量作为小波神经网络模型的权值、阈值和伸缩平移系数组成,初始化种群;
个体种群规模S的取值范围为[200,800]、优胜个体数量为5,临时个体数量为5;
步骤4.2:设定适应度函数;
将个体向量对应的权值、阈值和伸缩平移系数代入基于小波神经网络的初始手臂关节控制值预测模型中,并利用个体向量确定的基于小波神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值之差的平均值E,构建第二适应度函数f2(x)计算出每个个体的得分;
f2(x)=1/(E+1)
步骤4.3:计算每个个体的适应度值,生成子群体;
适应度最高的前5个个体作为优胜个体,前第6到第10共5个个体作为临时个体;依次以所选优胜个体和临时个体为中心,随机生成5个优胜子群体和5个临时子群体,每个子群体的个体数目为S/10;
步骤4.4:依次对个体进行趋同操作;
若一个子群体不再产生新的胜者,表示子群体成熟,则竞争结束,该子群体的得分就是子群体中最优个体的得分,并把得分张贴在全局公告板上,直到所有子群体全部成熟,趋同过程结束;
步骤4.5:依次对个体进行异化操作;
从全局公告板上,比较优胜子群体和临时子群体的得分高低,完成子群体间的替换、废弃、个体释放的过程,得到全局最优个体及其得分;
步骤4.6:判断是否达到最大迭代次数或者最大搜索精度,达到则输出最优个体,作为小波神经网络的权值、阈值和伸缩平移系数,否则返回步骤4.4。
5.根据权利要求1所述的方法,其特征在于,采用Elman神经网络模型训练构建的初始手臂关节控制值预测模型是以机器人基座超声波传感器测得的实时距离作为输入数据,机器人手臂关节控制值作为输出数据,对Elman神经网络模型进行训练获得:
其中,所使用的Elman神经网络模型输入层节点个数为2,隐含层个数为5,输出层节点个数为4,承接层节点个数为5;隐含层函数采用tansig,输出层神经元的传递函数采用logsig,最大迭代次数设置为100,训练学习率为0.1,阈值为0.001;
其中,所使用的Elman神经网络模型的权值和阈值分别采用水循环算法WCA或带有自适应权值的量子粒子群算法AG-QPSO进行优化选择。
6.根据权利要求5所述的方法,其特征在于,所述Elman神经网络模型的权值和阈值采用水循环算法WCA算法进行优化选择的过程如下:
步骤6.1:每个降雨层作为Elman神经网络模型的权值和阈值,初始化降雨层种群;
设定降雨层种群数量的取值范围为[20,100],海洋数量为1,河流数量的取值范围为[5,30],最大迭代次数的取值范围为[200,1000]、极小值的取值范围为[0.005,0.1];
步骤6.2:设定适应度函数;
将降雨层对应的权值和阈值代入基于Elman神经网络的初始手臂关节控制值预测模型中,并利用降雨层确定的基于Elman神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第三适应度函数;
步骤6.3:以适应度大的降雨层作为大海,以适应度次小的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;
步骤6.4:如果溪流解优于河流解,则溪流与河流交换位置,如果河流解优于海洋解,则河流与海洋交换位置;然后使溪流流入河流,使河流汇入海洋;
步骤6.5:判断河流解与海洋解之间的差值绝对值是否小于设定的极小值,如果小于,则认为满足降雨条件,从种群中去掉该河流,并重新进行降雨过程,随机生成新的降雨层加入种群,返回步骤6.3继续一次迭代,否则,进入步骤6.6;
步骤6.6:判断是否到达最大迭代次数,若满足则输出最优的降雨层对应的参数,输出Elman神经网络模型的权值和阈值,若不满足则进入步骤6.3继续下一次迭代。
7.根据权利要求5所述的方法,其特征在于,所述Elman神经网络模型的权值和阈值采用带有自适应权值的量子粒子群算法AG-QPSO进行优化选择的过程如下:
步骤7.1:量子粒子群中每个个体的位置向量设置为Elman神经网络模型的权值和阈值,将种群个体的每个参数初始化为[-1 1]的随机数;
量子粒子群种群的个数的取值范围为[20,80],量子粒子群的粒子个数的取值范围为[10,50],最大迭代次数的取值范围为[200,1000],组建精英种群的迭代次数的取值范围为[50,200],早熟收敛判断阈值的取值范围为[0.01,0.05],种群最差粒子变异比例δ%的取值范围为[2%,6%];
步骤7.2:设定适应度函数,确定最优量子粒子个***置向量;
将量子粒子个***置向量对应的权值和阈值代入基于Elman神经网络的初始手臂关节控制值预测模型中,并利用量子粒子个***置向量确定的基于Elman神经网络的初始手臂关节控制值预测模型计算样本集中每个关节样本的关节控制预测值,将所有关节样本的控制预测值和实际值的均方差MSE的倒数作为第四适应度函数;
步骤7.3:运行早熟收敛判断机制;
如果量子粒子群群体适应度方差小于早熟收敛判断阈值γ,则对δ%的最差粒子和群体极值进行变异,并对主导全局极值进行更新;
步骤7.4:判断是否组建精英种群;
当迭代次数大于精英种群迭代次数时,则通过种群间的信息共享,提取各种群的极值组建精英种群,转入步骤7.8,否则转入步骤7.5;
步骤7.5:更新各种群粒子参数;
步骤7.6:重新计算并比较每个粒子的适应值,如果优于当前的个体极值,则更新个体极值;比较全局极值,如果优于当前的群体极值,则更新全局极值,转入步骤7.2;
步骤7.7:精英种群继续进化;
步骤7.8:判断是否满足最大迭代次数,若满足则退出,否则转入步骤7.8,直到找到全局最优值,输出Elman神经网络模型的权值和阈值。
8.一种机器人手臂操控多层映射智能控制***,其特征在于,包括:
抓取样本集获取单元,当运载机器人位于指定抓取距离区间内,利用远程服务器控制运载机器人手臂进行抓取训练,获得抓取样本集;
每个抓取样本包括运载机器人基座与抓取台底端边缘之间的距离和在该距离区间中手臂关节控制值矩阵,所述手臂控制矩阵大小为N*M,N表示运载机器人手臂关节个数,M表示抓取过程手臂动作次数;
手臂关节控制值预测模型构建单元,利用抓取样本集训练运载机器人手臂关节控制值预测模型;
将运载机器人基座到抓取台底部边缘的距离作为训练模型的输入数据,机器人手臂对应所有关节控制值矩阵作为训练模型的输出数据,构建各种初始手臂关节控制值预测模型;
所述训练模型至少包括小波神经网络模型和Elman神经网络模型;
距离样本测试集选取单元,从抓取样本集中随机选取不同的运载机器人基座到抓取台底部边缘的距离将抓取样本构成距离样本测试集;
所述距离样本测试集中所有样本对应的距离形成的距离范围覆盖抓取距离区间;
距离样本测试集中样本对应的距离是指抓取样本中运载机器人基座与抓取台底端边缘之间的距离;
最优手臂关节控制值预测模型选取单元,依次利用距离样本测试集中的每个样本测试各种手臂关节控制值预测模型,以距离样本测试集中所有样本手臂关节控制值的预测值和实际值之间的均方差最小为选取依据,获得在不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型;
控制单元,利用运载机器人基座与抓取台底端边缘之间的距离选取对应的最优手臂关节控制值预测模型,得到手臂关节的控制值,输出运载机器人手臂所有关节的控制值至运载机器人,完成抓取任务;
当待控制的运载机器人基座与抓取台底端边缘之间的实时距离与步骤4中不同运载机器人基座到抓取台底部边缘的距离下的最优手臂关节控制值预测模型对应的距离均不匹配时,选取与实时距离最近的最优手臂关节控制值预测模型。
9.根据权利要求8所述的***,其特征在于,所述指定区域设置为运载机器人基座与抓取台底部边缘距离18-28cm的直线区域内。
10.根据权利要求8所述的***,其特征在于,所述运载机器人基座与抓取台底部边缘距离采用运载机器人自带的超声波传感器进行测量,且所述超声波传感器位于运载机器人基座的两侧,对称设置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710636699.4A CN107414830B (zh) | 2017-07-31 | 2017-07-31 | 一种运载机器人手臂操控多层映射智能控制方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710636699.4A CN107414830B (zh) | 2017-07-31 | 2017-07-31 | 一种运载机器人手臂操控多层映射智能控制方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107414830A true CN107414830A (zh) | 2017-12-01 |
CN107414830B CN107414830B (zh) | 2018-03-23 |
Family
ID=60431577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710636699.4A Active CN107414830B (zh) | 2017-07-31 | 2017-07-31 | 一种运载机器人手臂操控多层映射智能控制方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107414830B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108196453A (zh) * | 2018-01-24 | 2018-06-22 | 中南大学 | 一种机械臂运动规划群体智能计算方法 |
CN108247637A (zh) * | 2018-01-24 | 2018-07-06 | 中南大学 | 一种工业机器人手臂视觉防撞操控方法 |
CN108280518A (zh) * | 2018-01-23 | 2018-07-13 | 中南大学 | 一种分布式环境机器人及车辆移动互联运载方法与*** |
CN108942946A (zh) * | 2018-08-29 | 2018-12-07 | 中南大学 | 一种智慧物流环境机器人装载方法与装置 |
CN109583092A (zh) * | 2018-11-30 | 2019-04-05 | 中南大学 | 一种多层次多模式特征提取的智能机械***故障诊断方法 |
CN110834943A (zh) * | 2018-08-17 | 2020-02-25 | 上海优爱宝智能机器人科技股份有限公司 | 协同式理料机构及协同式理料方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110069834A1 (en) * | 2009-09-03 | 2011-03-24 | Jerzy Henryk Urbanik | Method and system for a symmetric block cipher using a plurality of symmetric algorithms |
CN103213129A (zh) * | 2013-04-17 | 2013-07-24 | 北京空间飞行器总体设计部 | 一种空间机械臂位置力混合控制方法 |
CN103235513A (zh) * | 2013-04-24 | 2013-08-07 | 武汉科技大学 | 一种基于遗传算法的移动机械臂轨迹规划优化方法 |
CN103279039A (zh) * | 2013-05-17 | 2013-09-04 | 安徽工业大学 | 一种机器人神经网络式计算力矩控制器训练平台及训练方法 |
CN104589349A (zh) * | 2015-01-16 | 2015-05-06 | 西北工业大学 | 一种混合悬浮微重力环境下带有单关节机械臂的组合体自主控制方法 |
-
2017
- 2017-07-31 CN CN201710636699.4A patent/CN107414830B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110069834A1 (en) * | 2009-09-03 | 2011-03-24 | Jerzy Henryk Urbanik | Method and system for a symmetric block cipher using a plurality of symmetric algorithms |
CN103213129A (zh) * | 2013-04-17 | 2013-07-24 | 北京空间飞行器总体设计部 | 一种空间机械臂位置力混合控制方法 |
CN103235513A (zh) * | 2013-04-24 | 2013-08-07 | 武汉科技大学 | 一种基于遗传算法的移动机械臂轨迹规划优化方法 |
CN103279039A (zh) * | 2013-05-17 | 2013-09-04 | 安徽工业大学 | 一种机器人神经网络式计算力矩控制器训练平台及训练方法 |
CN104589349A (zh) * | 2015-01-16 | 2015-05-06 | 西北工业大学 | 一种混合悬浮微重力环境下带有单关节机械臂的组合体自主控制方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280518A (zh) * | 2018-01-23 | 2018-07-13 | 中南大学 | 一种分布式环境机器人及车辆移动互联运载方法与*** |
CN108280518B (zh) * | 2018-01-23 | 2020-06-26 | 中南大学 | 一种分布式环境机器人及车辆移动互联运载方法与*** |
CN108196453A (zh) * | 2018-01-24 | 2018-06-22 | 中南大学 | 一种机械臂运动规划群体智能计算方法 |
CN108247637A (zh) * | 2018-01-24 | 2018-07-06 | 中南大学 | 一种工业机器人手臂视觉防撞操控方法 |
CN108196453B (zh) * | 2018-01-24 | 2020-11-20 | 中南大学 | 一种机械臂运动规划群体智能计算方法 |
CN108247637B (zh) * | 2018-01-24 | 2020-11-24 | 中南大学 | 一种工业机器人手臂视觉防撞操控方法 |
CN110834943A (zh) * | 2018-08-17 | 2020-02-25 | 上海优爱宝智能机器人科技股份有限公司 | 协同式理料机构及协同式理料方法 |
CN108942946A (zh) * | 2018-08-29 | 2018-12-07 | 中南大学 | 一种智慧物流环境机器人装载方法与装置 |
CN109583092A (zh) * | 2018-11-30 | 2019-04-05 | 中南大学 | 一种多层次多模式特征提取的智能机械***故障诊断方法 |
CN109583092B (zh) * | 2018-11-30 | 2020-07-14 | 中南大学 | 一种多层次多模式特征提取的智能机械***故障诊断方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107414830B (zh) | 2018-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107414830B (zh) | 一种运载机器人手臂操控多层映射智能控制方法及*** | |
CN107253195B (zh) | 一种运载机器人手臂操控自适应混合学习映射智能控制方法及*** | |
CN110794842A (zh) | 基于势场的强化学习路径规划算法 | |
CN108827312A (zh) | 一种基于神经网络和人工势场的协同博弈路径规划方法 | |
CN110490035A (zh) | 人体骨架动作识别方法、***及介质 | |
CN109241291A (zh) | 基于深度强化学习的知识图谱最优路径查询***及其方法 | |
CN109932903A (zh) | 多父代优化网络和遗传算法的风机控制多目标优化方法 | |
CN107253194A (zh) | 一种运载机器人手臂操控多点映射智能控制方法及*** | |
CN109872346A (zh) | 一种支持循环神经网络对抗学习的目标跟踪方法 | |
CN104408518A (zh) | 基于粒子群优化算法的神经网络学习优化方法 | |
CN108241911B (zh) | 一种基于细菌觅食优化算法的配送中心选址方法 | |
Zhang et al. | A review of soft computing based on deep learning | |
CN111292124A (zh) | 一种基于优化组合神经网络的需水预测方法 | |
CN108955689A (zh) | 基于自适应细菌觅食优化算法的rbpf-slam方法 | |
Chen et al. | Object goal navigation with recursive implicit maps | |
CN109408896A (zh) | 一种污水厌氧处理产气量多元智能实时监控方法 | |
Tu et al. | A neural network pruning method optimized with PSO algorithm | |
CN114153216B (zh) | 基于深度强化学习和块规划的月面路径规划***和方法 | |
Guo et al. | Learning pushing skills using object detection and deep reinforcement learning | |
CN112861332B (zh) | 一种基于图网络的集群动力学预测方法 | |
Kuo et al. | Two-stage fuzzy object grasping controller for a humanoid robot with proximal policy optimization | |
Mishra et al. | Short term load forecasting using a neural network trained by a hybrid artificial immune system | |
Chen et al. | An improved PSO algorithm to optimize BP neural network | |
Dingxue et al. | An adaptive particle swarm optimization algorithm and simulation | |
Wenxian et al. | PSO-BP neural network model for predicting water temperature in the middle of the Yangtze river |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |