CN101953727A - 多自由度上假肢关节空间参数的求解方法 - Google Patents
多自由度上假肢关节空间参数的求解方法 Download PDFInfo
- Publication number
- CN101953727A CN101953727A CN2010102804998A CN201010280499A CN101953727A CN 101953727 A CN101953727 A CN 101953727A CN 2010102804998 A CN2010102804998 A CN 2010102804998A CN 201010280499 A CN201010280499 A CN 201010280499A CN 101953727 A CN101953727 A CN 101953727A
- Authority
- CN
- China
- Prior art keywords
- artificial limb
- freedom
- robot
- multiple degrees
- artificial neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Prostheses (AREA)
Abstract
本发明公开了一种多自由度上假肢关节空间参数的求解方法,它首先获取训练人工神经网络的输入样本集和目标样本集,再将获取的输入样本集和目标样本集分别作为人工神经网络的输入参数和目标参数对人工神经网络进行训练,从而得到多自由度上假肢或机器人关节空间参数的求解模型。本发明提供了一种在只知道目标的操作空间位置,而不知道所要求手部姿态情形下,用于“肩离断”型残疾人功能代偿的多自由度上假肢的关节空间的求解方法。该方法可为上述情形下多自由度上假肢或机器人的关节空间参数获得某种可行解,以使其能完成指定的操作任务。
Description
技术领域
本发明涉及基于人工神经网络的多自由度假肢关节空间参数的求解方法,尤其涉及一种在只知道工作目标的空间位置,而不知道所要求手部姿态情形下,用于“肩离断”型残疾人功能代偿的多自由度上假肢(指上肢假肢)关节空间的求解方法。该方法也可以用在其它具有类似工作情形的机器人关节空间的求解上。
背景技术
对于多自由度上假肢关节空间参数的求解,涉及到机器人逆运动学知识的应用。
在机器人的正运动学方程中,机器人各个关节的参数值是自变量,机器人手部在操作空间的姿态与位置是因变量,机器人的正运动学方程是根据机器人的结构特性而推导建立的;在机器人的逆运动学方程中,机器人手部在操作空间的姿态与位置是自变量,机器人各个关节的参数值是因变量,机器人的逆运动学方程一般是用解析方法由机器人的正运动学方程反向推导产生的。在实际工作中,人们往往是先知道机器人手部在操作空间的姿态与位置,然后再根据机器人的逆运动学方程求导出机器人各个关节的参数值,以使得机器人各个关节能够按照求出的数值转过相应的角度,来将手部以正确的姿态与位置放到工作目标上。在此,凡是以机器人手部在操作空间的姿态与位置为自变量,以机器人各个关节的参数值为因变量的求解模型就称其为机器人的逆运动学求解模型,或者称其为关节空间参数求解模型。
通常,在机器人的正运动学解析方程中,自变量的个数,就是机器人运动关节的数量,其数值就是各个关节转角或移动量的描述;因变量个数是12个,其中有9个是手部姿态描述参数,有3个是手部中心位置描述参数,其全部数值也就是工作目标在操作空间的姿态与位置的描述。
通常,在机器人的逆运动学解析方程中,自变量的个数是12个,其中有9个是手部姿态描述参数,有3个是手部中心位置描述参数,其全部数值也就是工作目标在操作空间的姿态与位置的描述;因变量个数就是机器人运动关节的数量,其数值就是各个关节转角或移动量的描述。
这样,在采用一般的解析方法来求解机器人逆运动学方程时,必然要预先知道操作空间中工作目标的12个参数,包括目标的9个姿态参数和3个空间位置参数,才能使得求解条件达到满足,才能求出机器人关节空间的解。
对于工作在非结构化环境中的多自由度上假肢或机器人来说,获得其随机工作目标的操作空间位置信息较为容易做到,但是如何描述随机工作目标的姿态信息却是一个非常困难的事情。在仅仅知道随机工作目标的3个操作空间位置参数,而不知其9个姿态参数情形下,如何求得一种可行的多自由度假肢或机器人关节空间的解,目前尚无对该技术方法的研究叙述。这是本领域研究人员亟需解决的问题。
发明内容
本发明的目的,是在仅仅知道随机工作目标的三维空间的位置参数信息,而无法获取其姿态信息情况下,为多自由度上假肢关节空间参数的求解发明一种解决方法。
为达上述目的,发明的求解方法是在仅仅知道随机目标在操作空间的3个位置参数信息情形下,引入一种实现对多自由度上假肢关节空间求解的解决方案。拟利用人工神经网络对不完整信息独特的参数映射能力、快速并行信息处理能力和多输入多输出的非线性特性来建立一种特殊的多自由度假肢关节空间参数求解模型。每当多自由度假肢***获得随机工作目标在操作空间的三维坐标值时,将该3个坐标值和某种欠定义的代偿姿态描述作为网络模型的输入,以此来快速、并行地得到假肢或机器人各关节的某种可行的求解值。
本发明的求解方法详细步骤如下:
第一步:获取训练人工神经网络的输入样本集和目标样本集
首先,将各个关节的矢量参数q作为已知条件代入多自由度上假肢或机器人正运动学方程时,得到多自由度上假肢或机器人的关于操作空间的对应解p。当在关节空间用离散化方法、逐渐扫描方式对各关节矢量参数qi(i=1,2…,n)进行取值时,若足够多的n组数据可以使得假肢或机器人各关节的各种组合空间都能被离散化扫描到,就可获得假肢或机器人的手部的、以各种不同的姿态达到的所有工作位置的离散化操作空间的解pi(i=1,2…,n)的集合。
对前述的pi(i=1,2…,n)中的数据经过特别处理后组成集合{P},将集合{P}作为训练人工神经网络的输入样本集;将前述的qi(i=1,2…,n)数据整理组成集合{Q},将集合{Q}作为训练人工神经网络的目标样本集。
第二步:训练人工神经网络
训练的结果使得{e}→{0}。
经过充分训练后,该人工神经网络即成多自由度上假肢或机器人的关节空间参数求解模型。当以操作空间工作目标的位置与代偿的手部姿态描述等参数作为网络的输入时,已经训练好的人工神经网络***就会自动求得到多自由度上假肢或机器人的关节空间参数的某种可行解。
本发明的优点在于:
发明了一种在只知道工作目标的操作空间位置,而不知道所要求手部姿态情形下,用于“肩离断”型残疾人功能代偿的多自由度上假肢的关节空间的求解方法。该方法可为上述情形下多自由度上假肢或机器人的关节空间参数获得某种可行解,以使其能完成指定的操作任务。
附图说明
下面参照附图1-3说明本发明的一个实施例。
图1是某种多自由度上假肢的示意图,其中图1(a)是主视图,图1(b)是左视图。
图2是某种多自由度上假肢正视的传动结构原理及各个坐标系关系图。
图3是用假肢关节空间的求解结果代入假肢正运动学方程所获得的手部在操作空间中位置与姿态假肢运动仿真图。
图例说明:1-假肢肩部构件,2-假肢大臂构件,3-假肢小臂转动支撑,4-假肢小臂转动构件,5-假手构件,
具体实施方式
本发明以图1所示的假肢为例,从图中可以看出,该假肢由假肢肩部构件1、假肢大臂构件2、假肢小臂转动支撑3、假肢小臂转动构件4和假手构件5组成。
对图1所示的假肢关节空间姿态参数的求解具体实施步骤如下:
STEP1.画出多自由度上假肢的结构原理及各个坐标系关系图,如图2所示。
STEP2.根据多自由度上假肢的结构特性,将其各种参数列表,如表1所列。
表1
STEP3.由表1,列出各杆件的A矩阵和T矩阵如下:
令:
公式(2)-(7)描述的各个杆件坐标系相对于其前面一坐标系的位置与姿态,公式(8)-(12)描述的是假肢各个杆件末端的坐标系在操作空间的位置与姿态,公式(13)描述的是假肢的手部在操作空间的位置与姿态。
STEP4.按照表1中各个关节的取值范围和公式(2)-(13)对假肢的关节空间进行扫描。在扫描关节空间过程中,将第i(i=1,2…,n)次扫描的关节空间的矢量值写成qi(i=1,2…,n):
qi(i,1)=θ1i
qi(i,2)=θ2i
qi(i,3)=θ3i (i=1,2…,n) (14)
qi(i,4)=θ4i
qi(i,5)=θ5i
STEP5.将相应用公式(13)获得的手部操作空间位置与姿态的描述简化整理写成pi(i=1,2…,n):
pi(i,1)=5T(1,3)=5axi
pi(i,2)=5T(2,3)=5ayi
pi(i,3)=5T(3,3)=5azi
pi(i,4)=5T(1,4)=5pxi (i=1,2…,n)(15)
pi(i,5)=5T(2,4)=5pyi
pi(i,6)=5T(3,4)=5pzi
即:在pi(i=1,2…,n)中只保留了手部Z5轴姿态和手心位置的描述。
STEP6.经过足够多的n次扫描后,使得假肢或机器人各关节的各种组合空间都能被离散化扫描到,亦即假肢在操作空间的位置与姿态也都能离散化获得。将前述的qi(i=1,2…,n)数据整理组成集合{Q},集合{Q}将用来作为训练人工神经网络的目标样本集。将前述的pi(i=1,2…,n)中的数据整理组成集合{P},集合{P}将被用来作为训练人工神经网络的输入样本集。
STEP7.用集合{P}和集合{Q}用来训练人工神经网络。一种训练BP神经网络的MATLAB程序的主要部分如下所示(其中部分网络参数是可以调整的):
xmin=min(P(:,4));%计算X的最小值
xmax=max(P(:,4));%计算X的最大值
ymin=min(P(:,5));%计算Y的最小值
ymax=max(P(:,5));%计算Y的最大值
zmin=min(P(:,6));%计算Z的最小值
zmax=max(P(:,6));%计算Z的最大值
net=newff([-1 1;-1 1;-1 1;xmin xmax;ymin ymax;zminzmax],[30,50,5],{’tansig’,’purelin’},’traingdx’);%建立BP网络
net.trainParam.goal=0.001;%设计训练的迭代精度
net.trainParam.epochs=500000;%设计最多迭代运行步长。
[net,tr]=train(net,P’,Q’);%训练网络
%输出训练后各层的权值和阈值:
iwl=net.IW{1};
bl=net.b{1};
lw2=net.LW{2};
b2=net.b{2};
%存储训练好的神经网络:
save net net %将训练好的人工神经网络模型“net”(在此是指后面一个“net”)存储为名字为“net”(在此是指前面一个“net”)的MATLAB文件。
上述的名为“net”的人工神经网络模型就是要求的多自由度假肢关节空间参数求解模型。
STEP8.当需要使用这个模型时,以手部坐标系的Z5轴方向总是向上,来作为手部姿态的一个代偿描述。这样,当获得某个目标的操作空间位置ps的齐次描述如下时:
总可以将多自由度上假肢关节空间参数求解模型的输入向量pn表示为:
STEP9.将pn作为输入向量输入前述的人工神经网络求解模型,就可以迅速得到多自由度上假肢关节空间的解。
下面以具体实施例,并参照附图1-3说明以上关于多自由度上假肢关节空间参数的人工神经网络求解模型的应用。
实施例一:
当我们获得工作目标关于操作空间位置的齐次描述为ps1时:
将网络模型的输入pn1写成如下形式:
将pn1输入上述的网络模型中可以求得网络输出,即多自由度上假肢关节空间的解qn1为:
将以上求解结果再代入该假肢正运动学方程-公式(13)中,可以求得假肢手部在操作空间的实际位置与姿态描述5T1将为:
即,在不严格考虑手部姿态情况下,假肢手部实际到达的操作空间位置的齐次描述p’s1为:
见图3中中间一条折线的演示。
实施例二:
当我们获得工作目标关于操作空间位置的齐次描述为ps2时:
将网络模型输入pn2写成如下形式:
将pn2输入上述的网络模型中可以求得网络输出,即多自由度上假肢关节空间的解qn2为:
将以上求解结果再代入该假肢正运动学方程-公式(13)中,可以求得假肢手部在操作空间的实际位置与姿态描述5T2将为:
即,在不严格考虑手部姿态情况下,假肢手部实际到达的操作空间位置的齐次描述p’s2为:
见图3中左面一条折线的演示。
实施例三:
当我们获得工作目标关于操作空间位置的齐次描述为ps3时:
将网络模型输入pn3写成如下形式:
将pn3输入上述的网络模型中可以求得网络输出,即多自由度假肢关节空间的解qn3为:
将以上求解结果再代入该假肢正运动学方程-公式(13)中,可以求得假肢手部在操作空间的实际位置与姿态描述5T3将为:
即,在不严格考虑手部姿态情况下,假肢手部实际到达的操作空间位置的齐次描述p’s3为:
见图3中右面一条折线的演示。
由以上三个实施例可以看出,本发明的方法可在只知目标的操作空间位置,而目标姿态信息缺失情况下获得一种可行的多自由度上假肢关节空间的解。本方法虽然对手部要求的姿态无法准确描述并实现之,但是却可以使得手部以相对误差小于1%的精度达到目标所在位置,为通常解析法无法求解的问题找到一种可行的解决办法。
本发明说明书中未详细描述的内容属于本领域专业技术人员公知的现有技术或理论。
Claims (1)
1.一种多自由度上假肢关节空间参数的求解方法,其特征在于,详细步骤如下:
第一步:获取训练人工神经网络的输入样本集和目标样本集
首先,将各个关节的矢量参数q作为已知条件代入多自由度上假肢或机器人正运动学方程时,得到多自由度上假肢或机器人的关于操作空间的对应解p;当在关节空间用离散化方法、逐渐扫描方式对各关节矢量参数qi(i=1,2…,n)进行取值时,若足够多的n组数据可以使得假肢或机器人各关节的各种组合空间都能被离散化扫描到,就可获得假肢或机器人的手部的、以各种不同的姿态达到的所有工作位置的离散化操作空间的解pi(i=1,2…,n)的集合;
对前述的pi(i=1,2…,n)中的数据经过特别处理后组成集合{P},将集合{P}作为训练人工神经网络的输入样本集;将前述的qi(i=1,2…,n)数据整理组成集合{Q},将集合{Q}作为训练人工神经网络的目标样本集;
第二步:训练人工神经网络
训练的结果使得{e}→{0};
经过充分训练后,该人工神经网络即成多自由度上假肢或机器人的关节空间参数求解模型;当以操作空间工作目标的位置与代偿的手部姿态描述参数作为网络的输入时,已经训练好的人工神经网络***就会自动求得到多自由度上假肢或机器人关节空间参数的某种可行解。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010280499 CN101953727B (zh) | 2010-09-11 | 2010-09-11 | 多自由度上假肢关节空间参数的求解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010280499 CN101953727B (zh) | 2010-09-11 | 2010-09-11 | 多自由度上假肢关节空间参数的求解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101953727A true CN101953727A (zh) | 2011-01-26 |
CN101953727B CN101953727B (zh) | 2013-07-24 |
Family
ID=43481490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201010280499 Expired - Fee Related CN101953727B (zh) | 2010-09-11 | 2010-09-11 | 多自由度上假肢关节空间参数的求解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101953727B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509025A (zh) * | 2011-11-25 | 2012-06-20 | 苏州大学 | 一种六自由度仿人灵巧臂逆运动学的快速求解方法 |
CN102637158A (zh) * | 2012-04-28 | 2012-08-15 | 谷菲 | 一种六自由度串联机器人运动学逆解的求解方法 |
CN103273497A (zh) * | 2013-06-06 | 2013-09-04 | 山东科技大学 | 人机交互式机械手控制***及其控制方法 |
CN103271784A (zh) * | 2013-06-06 | 2013-09-04 | 山东科技大学 | 基于双目视觉的人机交互式机械手控制***和控制方法 |
CN104758096A (zh) * | 2015-03-30 | 2015-07-08 | 山东科技大学 | 一种对假肢目标空间定位精度矫正的方法 |
CN107358215A (zh) * | 2017-07-20 | 2017-11-17 | 重庆工商大学 | 一种应用于手饰增强现实***的图像处理方法 |
CN111513891A (zh) * | 2020-04-27 | 2020-08-11 | 陕西恒通智能机器有限公司 | 一种3d打印的肩关节假肢 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101320251A (zh) * | 2008-07-15 | 2008-12-10 | 华南理工大学 | 基于确定学习理论的机器人行走控制方法 |
-
2010
- 2010-09-11 CN CN 201010280499 patent/CN101953727B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101320251A (zh) * | 2008-07-15 | 2008-12-10 | 华南理工大学 | 基于确定学习理论的机器人行走控制方法 |
Non-Patent Citations (2)
Title |
---|
石炜等: "六连杆机器人运动学分析", 《包头钢铁学院学报》, vol. 25, no. 4, 31 December 2006 (2006-12-31), pages 360 - 364 * |
许胜善: "基于神经元网络算法的六自由度手臂机器人的控制研究", 《昆明理工大学硕士学位论文》, 15 September 2008 (2008-09-15), pages 6 - 58 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509025A (zh) * | 2011-11-25 | 2012-06-20 | 苏州大学 | 一种六自由度仿人灵巧臂逆运动学的快速求解方法 |
CN102637158A (zh) * | 2012-04-28 | 2012-08-15 | 谷菲 | 一种六自由度串联机器人运动学逆解的求解方法 |
CN102637158B (zh) * | 2012-04-28 | 2015-05-06 | 谷菲 | 一种六自由度串联机器人运动学逆解的求解方法 |
CN103273497A (zh) * | 2013-06-06 | 2013-09-04 | 山东科技大学 | 人机交互式机械手控制***及其控制方法 |
CN103271784A (zh) * | 2013-06-06 | 2013-09-04 | 山东科技大学 | 基于双目视觉的人机交互式机械手控制***和控制方法 |
CN103271784B (zh) * | 2013-06-06 | 2015-06-10 | 山东科技大学 | 基于双目视觉的人机交互式机械手控制***和控制方法 |
CN103273497B (zh) * | 2013-06-06 | 2015-08-19 | 山东科技大学 | 人机交互式机械手控制***及其控制方法 |
CN104758096A (zh) * | 2015-03-30 | 2015-07-08 | 山东科技大学 | 一种对假肢目标空间定位精度矫正的方法 |
CN104758096B (zh) * | 2015-03-30 | 2016-11-30 | 山东科技大学 | 一种对假肢目标空间定位精度矫正的方法 |
CN107358215A (zh) * | 2017-07-20 | 2017-11-17 | 重庆工商大学 | 一种应用于手饰增强现实***的图像处理方法 |
CN107358215B (zh) * | 2017-07-20 | 2020-10-09 | 重庆工商大学 | 一种应用于手饰增强现实***的图像处理方法 |
CN111513891A (zh) * | 2020-04-27 | 2020-08-11 | 陕西恒通智能机器有限公司 | 一种3d打印的肩关节假肢 |
Also Published As
Publication number | Publication date |
---|---|
CN101953727B (zh) | 2013-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101953727B (zh) | 多自由度上假肢关节空间参数的求解方法 | |
Deshpande et al. | Mechanisms of the anatomically correct testbed hand | |
Ozawa et al. | Grasp and dexterous manipulation of multi-fingered robotic hands: a review from a control view point | |
US11529733B2 (en) | Method and system for robot action imitation learning in three-dimensional space | |
DE102010045556B4 (de) | System und Verfahren zum Kalibrieren eines Absolutpositions-Drehsensors | |
CN106695797A (zh) | 基于双臂机器人协同操作的柔顺控制方法及*** | |
CN106938470A (zh) | 一种机器人力控示教模仿学习的装置及方法 | |
CN110035871A (zh) | 用于指示机器人的***和方法 | |
CN103717356A (zh) | 外骨骼 | |
DE102010045532A1 (de) | Roboterdaumenanodnung | |
Ficuciello | Synergy-based control of underactuated anthropomorphic hands | |
Bouzgou et al. | Geometric modeling and singularity of 6 DOF Fanuc 200IC robot | |
CN104546235A (zh) | 混合型假手 | |
Bandara et al. | Development of a multi-DoF transhumeral robotic arm prosthesis | |
CN108422421A (zh) | 骨骼肌肉式机器人的肌肉控制和装配方法 | |
Odesanmi et al. | Skill learning framework for human–robot interaction and manipulation tasks | |
Adjigble et al. | An assisted telemanipulation approach: combining autonomous grasp planning with haptic cues | |
CN109352649A (zh) | 一种基于深度学习的机械手控制方法及*** | |
Borghesan et al. | Friction compensation and virtual force sensing for robotic hands | |
Zou et al. | The development of six DOF robot arm for intelligent robot | |
Choudhury et al. | Mapping of human arm impedance characteristics in spatial movements | |
Ducut et al. | Design and Development of Robotic Arm Movements and Body Frame for a Social Robot for Graduation Rites | |
Crăciun et al. | Robotic Arm Control via Hand Movements | |
Zhang et al. | Mechanical design and analysis of a novel dexterous hand based on grasping manipulation | |
CN108638057A (zh) | 一种类人机器人双臂运动规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130724 Termination date: 20190911 |