CN101953727A - 多自由度上假肢关节空间参数的求解方法 - Google Patents

多自由度上假肢关节空间参数的求解方法 Download PDF

Info

Publication number
CN101953727A
CN101953727A CN2010102804998A CN201010280499A CN101953727A CN 101953727 A CN101953727 A CN 101953727A CN 2010102804998 A CN2010102804998 A CN 2010102804998A CN 201010280499 A CN201010280499 A CN 201010280499A CN 101953727 A CN101953727 A CN 101953727A
Authority
CN
China
Prior art keywords
artificial limb
freedom
robot
multiple degrees
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010102804998A
Other languages
English (en)
Other versions
CN101953727B (zh
Inventor
樊炳辉
孙爱芹
王传江
张志献
江浩
樊东哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN 201010280499 priority Critical patent/CN101953727B/zh
Publication of CN101953727A publication Critical patent/CN101953727A/zh
Application granted granted Critical
Publication of CN101953727B publication Critical patent/CN101953727B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Prostheses (AREA)

Abstract

本发明公开了一种多自由度上假肢关节空间参数的求解方法,它首先获取训练人工神经网络的输入样本集和目标样本集,再将获取的输入样本集和目标样本集分别作为人工神经网络的输入参数和目标参数对人工神经网络进行训练,从而得到多自由度上假肢或机器人关节空间参数的求解模型。本发明提供了一种在只知道目标的操作空间位置,而不知道所要求手部姿态情形下,用于“肩离断”型残疾人功能代偿的多自由度上假肢的关节空间的求解方法。该方法可为上述情形下多自由度上假肢或机器人的关节空间参数获得某种可行解,以使其能完成指定的操作任务。

Description

多自由度上假肢关节空间参数的求解方法
技术领域
本发明涉及基于人工神经网络的多自由度假肢关节空间参数的求解方法,尤其涉及一种在只知道工作目标的空间位置,而不知道所要求手部姿态情形下,用于“肩离断”型残疾人功能代偿的多自由度上假肢(指上肢假肢)关节空间的求解方法。该方法也可以用在其它具有类似工作情形的机器人关节空间的求解上。
背景技术
对于多自由度上假肢关节空间参数的求解,涉及到机器人逆运动学知识的应用。
在机器人的正运动学方程中,机器人各个关节的参数值是自变量,机器人手部在操作空间的姿态与位置是因变量,机器人的正运动学方程是根据机器人的结构特性而推导建立的;在机器人的逆运动学方程中,机器人手部在操作空间的姿态与位置是自变量,机器人各个关节的参数值是因变量,机器人的逆运动学方程一般是用解析方法由机器人的正运动学方程反向推导产生的。在实际工作中,人们往往是先知道机器人手部在操作空间的姿态与位置,然后再根据机器人的逆运动学方程求导出机器人各个关节的参数值,以使得机器人各个关节能够按照求出的数值转过相应的角度,来将手部以正确的姿态与位置放到工作目标上。在此,凡是以机器人手部在操作空间的姿态与位置为自变量,以机器人各个关节的参数值为因变量的求解模型就称其为机器人的逆运动学求解模型,或者称其为关节空间参数求解模型。
通常,在机器人的正运动学解析方程中,自变量的个数,就是机器人运动关节的数量,其数值就是各个关节转角或移动量的描述;因变量个数是12个,其中有9个是手部姿态描述参数,有3个是手部中心位置描述参数,其全部数值也就是工作目标在操作空间的姿态与位置的描述。
通常,在机器人的逆运动学解析方程中,自变量的个数是12个,其中有9个是手部姿态描述参数,有3个是手部中心位置描述参数,其全部数值也就是工作目标在操作空间的姿态与位置的描述;因变量个数就是机器人运动关节的数量,其数值就是各个关节转角或移动量的描述。
这样,在采用一般的解析方法来求解机器人逆运动学方程时,必然要预先知道操作空间中工作目标的12个参数,包括目标的9个姿态参数和3个空间位置参数,才能使得求解条件达到满足,才能求出机器人关节空间的解。
对于工作在非结构化环境中的多自由度上假肢或机器人来说,获得其随机工作目标的操作空间位置信息较为容易做到,但是如何描述随机工作目标的姿态信息却是一个非常困难的事情。在仅仅知道随机工作目标的3个操作空间位置参数,而不知其9个姿态参数情形下,如何求得一种可行的多自由度假肢或机器人关节空间的解,目前尚无对该技术方法的研究叙述。这是本领域研究人员亟需解决的问题。
发明内容
本发明的目的,是在仅仅知道随机工作目标的三维空间的位置参数信息,而无法获取其姿态信息情况下,为多自由度上假肢关节空间参数的求解发明一种解决方法。
为达上述目的,发明的求解方法是在仅仅知道随机目标在操作空间的3个位置参数信息情形下,引入一种实现对多自由度上假肢关节空间求解的解决方案。拟利用人工神经网络对不完整信息独特的参数映射能力、快速并行信息处理能力和多输入多输出的非线性特性来建立一种特殊的多自由度假肢关节空间参数求解模型。每当多自由度假肢***获得随机工作目标在操作空间的三维坐标值时,将该3个坐标值和某种欠定义的代偿姿态描述作为网络模型的输入,以此来快速、并行地得到假肢或机器人各关节的某种可行的求解值。
本发明的求解方法详细步骤如下:
第一步:获取训练人工神经网络的输入样本集和目标样本集
首先,将各个关节的矢量参数q作为已知条件代入多自由度上假肢或机器人正运动学方程时,得到多自由度上假肢或机器人的关于操作空间的对应解p。当在关节空间用离散化方法、逐渐扫描方式对各关节矢量参数qi(i=1,2…,n)进行取值时,若足够多的n组数据可以使得假肢或机器人各关节的各种组合空间都能被离散化扫描到,就可获得假肢或机器人的手部的、以各种不同的姿态达到的所有工作位置的离散化操作空间的解pi(i=1,2…,n)的集合。
对前述的pi(i=1,2…,n)中的数据经过特别处理后组成集合{P},将集合{P}作为训练人工神经网络的输入样本集;将前述的qi(i=1,2…,n)数据整理组成集合{Q},将集合{Q}作为训练人工神经网络的目标样本集。
第二步:训练人工神经网络
将{P}作为人工神经网络的输入参数,而将{Q}作为人工神经网络的目标参数。当人工神经网络的实际输出为
Figure BSA00000267951900031
时,用误差{e}去训练人工神经网络,其中:
{ e } = { Q } - { Q ^ } - - - ( 1 )
训练的结果使得{e}→{0}。
经过充分训练后,该人工神经网络即成多自由度上假肢或机器人的关节空间参数求解模型。当以操作空间工作目标的位置与代偿的手部姿态描述等参数作为网络的输入时,已经训练好的人工神经网络***就会自动求得到多自由度上假肢或机器人的关节空间参数的某种可行解。
本发明的优点在于:
发明了一种在只知道工作目标的操作空间位置,而不知道所要求手部姿态情形下,用于“肩离断”型残疾人功能代偿的多自由度上假肢的关节空间的求解方法。该方法可为上述情形下多自由度上假肢或机器人的关节空间参数获得某种可行解,以使其能完成指定的操作任务。
附图说明
下面参照附图1-3说明本发明的一个实施例。
图1是某种多自由度上假肢的示意图,其中图1(a)是主视图,图1(b)是左视图。
图2是某种多自由度上假肢正视的传动结构原理及各个坐标系关系图。
图3是用假肢关节空间的求解结果代入假肢正运动学方程所获得的手部在操作空间中位置与姿态假肢运动仿真图。
图例说明:1-假肢肩部构件,2-假肢大臂构件,3-假肢小臂转动支撑,4-假肢小臂转动构件,5-假手构件,
具体实施方式
本发明以图1所示的假肢为例,从图中可以看出,该假肢由假肢肩部构件1、假肢大臂构件2、假肢小臂转动支撑3、假肢小臂转动构件4和假手构件5组成。
对图1所示的假肢关节空间姿态参数的求解具体实施步骤如下:
STEP1.画出多自由度上假肢的结构原理及各个坐标系关系图,如图2所示。
STEP2.根据多自由度上假肢的结构特性,将其各种参数列表,如表1所列。
表1
Figure BSA00000267951900051
STEP3.由表1,列出各杆件的A矩阵和T矩阵如下:
A 0 = cos ( θ 0 ) - sin ( θ 0 ) cos ( α 0 ) sin ( θ 0 ) sin ( α 0 ) a 0 cos ( θ 0 ) sin ( θ 0 ) cos ( θ 0 ) cos ( α 0 ) - cos ( θ 0 ) sin ( α 0 ) a 0 sin ( θ 0 ) 0 sin ( α 0 ) cos ( α 0 ) d 0 0 0 0 1 - - - ( 2 )
A 1 = cos ( θ 1 ) - sin ( θ 1 ) cos ( α 1 ) sin ( θ 1 ) sin ( α 1 ) a 1 cos ( θ 1 ) sin ( θ 1 ) cos ( θ 1 ) cos ( α 1 ) - cos ( θ 1 ) sin ( α 1 ) a 1 sin ( θ 1 ) 0 sin ( α 1 ) cos ( α 1 ) d 1 0 0 0 1 - - - ( 3 )
A 2 = cos ( θ 2 ) - sin ( θ 2 ) cos ( α 2 ) sin ( θ 2 ) sin ( α 2 ) a 2 cos ( θ 2 ) sin ( θ 2 ) cos ( θ 2 ) cos ( α 2 ) - cos ( θ 2 ) sin ( α 2 ) a 2 sin ( θ 2 ) 0 sin ( α 2 ) cos ( α 2 ) d 2 0 0 0 1 - - - ( 4 )
A 3 = cos ( θ 3 ) - sin ( θ 3 ) cos ( α 3 ) sin ( θ 3 ) sin ( α 3 ) a 3 cos ( θ 3 ) sin ( θ 3 ) cos ( θ 3 ) cos ( α 3 ) - cos ( θ 3 ) sin ( α 3 ) a 3 sin ( θ 3 ) 0 sin ( α 3 ) cos ( α 3 ) d 3 0 0 0 1 - - - ( 5 )
A 4 = cos ( θ 4 ) - sin ( θ 4 ) cos ( α 4 ) sin ( θ 4 ) sin ( α 4 ) a 4 cos ( θ 4 ) sin ( θ 4 ) cos ( θ 4 ) cos ( α 4 ) - cos ( θ 4 ) sin ( α 4 ) a 4 sin ( θ 4 ) 0 sin ( α 4 ) cos ( α 4 ) d 4 0 0 0 1 - - - ( 6 )
A 5 = cos ( θ 5 ) - sin ( θ 5 ) cos ( α 5 ) sin ( θ 5 ) sin ( α 5 ) a 5 cos ( θ 5 ) sin ( θ 5 ) cos ( θ 5 ) cos ( α 5 ) - cos ( θ 5 ) sin ( α 5 ) a 5 sin ( θ 5 ) 0 sin ( α 5 ) cos ( α 5 ) d 5 0 0 0 1 - - - ( 7 )
令:
T 0 = A 0 = n x 0 o x 0 a x 0 p x 0 n y 0 o y 0 a y 0 p y 0 n z 0 o z 0 a z 0 p z 0 0 0 0 1 - - - ( 8 )
Figure BSA00000267951900064
Figure BSA00000267951900065
Figure BSA00000267951900066
Figure BSA00000267951900067
Figure BSA00000267951900071
公式(2)-(7)描述的各个杆件坐标系相对于其前面一坐标系的位置与姿态,公式(8)-(12)描述的是假肢各个杆件末端的坐标系在操作空间的位置与姿态,公式(13)描述的是假肢的手部在操作空间的位置与姿态。
STEP4.按照表1中各个关节的取值范围和公式(2)-(13)对假肢的关节空间进行扫描。在扫描关节空间过程中,将第i(i=1,2…,n)次扫描的关节空间的矢量值写成qi(i=1,2…,n):
qi(i,1)=θ1i
qi(i,2)=θ2i
qi(i,3)=θ3i    (i=1,2…,n)    (14)
qi(i,4)=θ4i
qi(i,5)=θ5i
STEP5.将相应用公式(13)获得的手部操作空间位置与姿态的描述简化整理写成pi(i=1,2…,n):
pi(i,1)=5T(1,3)=5axi
pi(i,2)=5T(2,3)=5ayi
pi(i,3)=5T(3,3)=5azi
pi(i,4)=5T(1,4)=5pxi    (i=1,2…,n)(15)
pi(i,5)=5T(2,4)=5pyi
pi(i,6)=5T(3,4)=5pzi
即:在pi(i=1,2…,n)中只保留了手部Z5轴姿态和手心位置的描述。
STEP6.经过足够多的n次扫描后,使得假肢或机器人各关节的各种组合空间都能被离散化扫描到,亦即假肢在操作空间的位置与姿态也都能离散化获得。将前述的qi(i=1,2…,n)数据整理组成集合{Q},集合{Q}将用来作为训练人工神经网络的目标样本集。将前述的pi(i=1,2…,n)中的数据整理组成集合{P},集合{P}将被用来作为训练人工神经网络的输入样本集。
STEP7.用集合{P}和集合{Q}用来训练人工神经网络。一种训练BP神经网络的MATLAB程序的主要部分如下所示(其中部分网络参数是可以调整的):
xmin=min(P(:,4));%计算X的最小值
xmax=max(P(:,4));%计算X的最大值
ymin=min(P(:,5));%计算Y的最小值
ymax=max(P(:,5));%计算Y的最大值
zmin=min(P(:,6));%计算Z的最小值
zmax=max(P(:,6));%计算Z的最大值
net=newff([-1  1;-1  1;-1  1;xmin   xmax;ymin    ymax;zminzmax],[30,50,5],{’tansig’,’purelin’},’traingdx’);%建立BP网络
net.trainParam.goal=0.001;%设计训练的迭代精度
net.trainParam.epochs=500000;%设计最多迭代运行步长。
[net,tr]=train(net,P’,Q’);%训练网络
%输出训练后各层的权值和阈值:
iwl=net.IW{1};
bl=net.b{1};
lw2=net.LW{2};
b2=net.b{2};
%存储训练好的神经网络:
save net net  %将训练好的人工神经网络模型“net”(在此是指后面一个“net”)存储为名字为“net”(在此是指前面一个“net”)的MATLAB文件。
上述的名为“net”的人工神经网络模型就是要求的多自由度假肢关节空间参数求解模型。
STEP8.当需要使用这个模型时,以手部坐标系的Z5轴方向总是向上,来作为手部姿态的一个代偿描述。这样,当获得某个目标的操作空间位置ps的齐次描述如下时:
p s = x s y s z s 1 - - - ( 16 )
总可以将多自由度上假肢关节空间参数求解模型的输入向量pn表示为:
p n = 0 0 1 x s y s z s - - - ( 17 )
STEP9.将pn作为输入向量输入前述的人工神经网络求解模型,就可以迅速得到多自由度上假肢关节空间的解。
下面以具体实施例,并参照附图1-3说明以上关于多自由度上假肢关节空间参数的人工神经网络求解模型的应用。
实施例一:
当我们获得工作目标关于操作空间位置的齐次描述为ps1时:
p s 1 = 400 - 100 - 300 1
将网络模型的输入pn1写成如下形式:
p n 1 = 0 0 1 400 - 100 - 300
将pn1输入上述的网络模型中可以求得网络输出,即多自由度上假肢关节空间的解qn1为:
Figure BSA00000267951900102
将以上求解结果再代入该假肢正运动学方程-公式(13)中,可以求得假肢手部在操作空间的实际位置与姿态描述5T1将为:
T 1 5 = 0.4109 - 0.5462 - 0.7300 399.2204 0.8362 - 0.0931 0.5404 - 100.1796 - 0.3631 - 0.8325 0.4184 - 297.7855 0 0 0 1.0000
即,在不严格考虑手部姿态情况下,假肢手部实际到达的操作空间位置的齐次描述p’s1为:
p s 1 , = 399.2204 - 100.1796 - 297.7855 1.0000
见图3中中间一条折线的演示。
实施例二:
当我们获得工作目标关于操作空间位置的齐次描述为ps2时:
p s 2 = 400 - 300 - 300 1
将网络模型输入pn2写成如下形式:
p n 2 = 0 0 1 400 - 300 - 300
将pn2输入上述的网络模型中可以求得网络输出,即多自由度上假肢关节空间的解qn2为:
Figure BSA00000267951900113
将以上求解结果再代入该假肢正运动学方程-公式(13)中,可以求得假肢手部在操作空间的实际位置与姿态描述5T2将为:
T 2 5 = 0.7469 - 0.5329 - 0.3978 400.1136 0.2671 - 0.3074 0.9133 - 301.4309 - 0.6089 - 0.7884 - 0.0872 - 298.6426 0 0 0 1.0000
即,在不严格考虑手部姿态情况下,假肢手部实际到达的操作空间位置的齐次描述p’s2为:
p s 2 , = 400.1136 - 301.4309 - 298.6426 1.0000
见图3中左面一条折线的演示。
实施例三:
当我们获得工作目标关于操作空间位置的齐次描述为ps3时:
p s 3 = 400 200 - 300 1
将网络模型输入pn3写成如下形式:
p n 3 = 0 0 1 400 200 - 300
将pn3输入上述的网络模型中可以求得网络输出,即多自由度假肢关节空间的解qn3为:
Figure BSA00000267951900124
将以上求解结果再代入该假肢正运动学方程-公式(13)中,可以求得假肢手部在操作空间的实际位置与姿态描述5T3将为:
T 3 5 = 0.4452 - 0.8771 0.1803 401.0491 0.8913 0.4147 - 0.1833 198.9831 0.0860 0.2423 0.9664 - 302.6534 0 0 0 1.0000
即,在不严格考虑手部姿态情况下,假肢手部实际到达的操作空间位置的齐次描述p’s3为:
p s 3 , = 401.0491 198.9831 - 302.6534 1.0000
见图3中右面一条折线的演示。
由以上三个实施例可以看出,本发明的方法可在只知目标的操作空间位置,而目标姿态信息缺失情况下获得一种可行的多自由度上假肢关节空间的解。本方法虽然对手部要求的姿态无法准确描述并实现之,但是却可以使得手部以相对误差小于1%的精度达到目标所在位置,为通常解析法无法求解的问题找到一种可行的解决办法。
本发明说明书中未详细描述的内容属于本领域专业技术人员公知的现有技术或理论。

Claims (1)

1.一种多自由度上假肢关节空间参数的求解方法,其特征在于,详细步骤如下:
第一步:获取训练人工神经网络的输入样本集和目标样本集
首先,将各个关节的矢量参数q作为已知条件代入多自由度上假肢或机器人正运动学方程时,得到多自由度上假肢或机器人的关于操作空间的对应解p;当在关节空间用离散化方法、逐渐扫描方式对各关节矢量参数qi(i=1,2…,n)进行取值时,若足够多的n组数据可以使得假肢或机器人各关节的各种组合空间都能被离散化扫描到,就可获得假肢或机器人的手部的、以各种不同的姿态达到的所有工作位置的离散化操作空间的解pi(i=1,2…,n)的集合;
对前述的pi(i=1,2…,n)中的数据经过特别处理后组成集合{P},将集合{P}作为训练人工神经网络的输入样本集;将前述的qi(i=1,2…,n)数据整理组成集合{Q},将集合{Q}作为训练人工神经网络的目标样本集;
第二步:训练人工神经网络
将{P}作为人工神经网络的输入参数,而将{Q}作为人工神经网络的目标参数;当人工神经网络的实际输出为
Figure FSA00000267951800011
时,用误差{e}去训练人工神经网络,其中:
{ e } = { Q } - { Q ^ } - - - ( 1 )
训练的结果使得{e}→{0};
经过充分训练后,该人工神经网络即成多自由度上假肢或机器人的关节空间参数求解模型;当以操作空间工作目标的位置与代偿的手部姿态描述参数作为网络的输入时,已经训练好的人工神经网络***就会自动求得到多自由度上假肢或机器人关节空间参数的某种可行解。
CN 201010280499 2010-09-11 2010-09-11 多自由度上假肢关节空间参数的求解方法 Expired - Fee Related CN101953727B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010280499 CN101953727B (zh) 2010-09-11 2010-09-11 多自由度上假肢关节空间参数的求解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010280499 CN101953727B (zh) 2010-09-11 2010-09-11 多自由度上假肢关节空间参数的求解方法

Publications (2)

Publication Number Publication Date
CN101953727A true CN101953727A (zh) 2011-01-26
CN101953727B CN101953727B (zh) 2013-07-24

Family

ID=43481490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010280499 Expired - Fee Related CN101953727B (zh) 2010-09-11 2010-09-11 多自由度上假肢关节空间参数的求解方法

Country Status (1)

Country Link
CN (1) CN101953727B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509025A (zh) * 2011-11-25 2012-06-20 苏州大学 一种六自由度仿人灵巧臂逆运动学的快速求解方法
CN102637158A (zh) * 2012-04-28 2012-08-15 谷菲 一种六自由度串联机器人运动学逆解的求解方法
CN103273497A (zh) * 2013-06-06 2013-09-04 山东科技大学 人机交互式机械手控制***及其控制方法
CN103271784A (zh) * 2013-06-06 2013-09-04 山东科技大学 基于双目视觉的人机交互式机械手控制***和控制方法
CN104758096A (zh) * 2015-03-30 2015-07-08 山东科技大学 一种对假肢目标空间定位精度矫正的方法
CN107358215A (zh) * 2017-07-20 2017-11-17 重庆工商大学 一种应用于手饰增强现实***的图像处理方法
CN111513891A (zh) * 2020-04-27 2020-08-11 陕西恒通智能机器有限公司 一种3d打印的肩关节假肢

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101320251A (zh) * 2008-07-15 2008-12-10 华南理工大学 基于确定学习理论的机器人行走控制方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101320251A (zh) * 2008-07-15 2008-12-10 华南理工大学 基于确定学习理论的机器人行走控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
石炜等: "六连杆机器人运动学分析", 《包头钢铁学院学报》, vol. 25, no. 4, 31 December 2006 (2006-12-31), pages 360 - 364 *
许胜善: "基于神经元网络算法的六自由度手臂机器人的控制研究", 《昆明理工大学硕士学位论文》, 15 September 2008 (2008-09-15), pages 6 - 58 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509025A (zh) * 2011-11-25 2012-06-20 苏州大学 一种六自由度仿人灵巧臂逆运动学的快速求解方法
CN102637158A (zh) * 2012-04-28 2012-08-15 谷菲 一种六自由度串联机器人运动学逆解的求解方法
CN102637158B (zh) * 2012-04-28 2015-05-06 谷菲 一种六自由度串联机器人运动学逆解的求解方法
CN103273497A (zh) * 2013-06-06 2013-09-04 山东科技大学 人机交互式机械手控制***及其控制方法
CN103271784A (zh) * 2013-06-06 2013-09-04 山东科技大学 基于双目视觉的人机交互式机械手控制***和控制方法
CN103271784B (zh) * 2013-06-06 2015-06-10 山东科技大学 基于双目视觉的人机交互式机械手控制***和控制方法
CN103273497B (zh) * 2013-06-06 2015-08-19 山东科技大学 人机交互式机械手控制***及其控制方法
CN104758096A (zh) * 2015-03-30 2015-07-08 山东科技大学 一种对假肢目标空间定位精度矫正的方法
CN104758096B (zh) * 2015-03-30 2016-11-30 山东科技大学 一种对假肢目标空间定位精度矫正的方法
CN107358215A (zh) * 2017-07-20 2017-11-17 重庆工商大学 一种应用于手饰增强现实***的图像处理方法
CN107358215B (zh) * 2017-07-20 2020-10-09 重庆工商大学 一种应用于手饰增强现实***的图像处理方法
CN111513891A (zh) * 2020-04-27 2020-08-11 陕西恒通智能机器有限公司 一种3d打印的肩关节假肢

Also Published As

Publication number Publication date
CN101953727B (zh) 2013-07-24

Similar Documents

Publication Publication Date Title
CN101953727B (zh) 多自由度上假肢关节空间参数的求解方法
Deshpande et al. Mechanisms of the anatomically correct testbed hand
Ozawa et al. Grasp and dexterous manipulation of multi-fingered robotic hands: a review from a control view point
US11529733B2 (en) Method and system for robot action imitation learning in three-dimensional space
DE102010045556B4 (de) System und Verfahren zum Kalibrieren eines Absolutpositions-Drehsensors
CN106695797A (zh) 基于双臂机器人协同操作的柔顺控制方法及***
CN106938470A (zh) 一种机器人力控示教模仿学习的装置及方法
CN110035871A (zh) 用于指示机器人的***和方法
CN103717356A (zh) 外骨骼
DE102010045532A1 (de) Roboterdaumenanodnung
Ficuciello Synergy-based control of underactuated anthropomorphic hands
Bouzgou et al. Geometric modeling and singularity of 6 DOF Fanuc 200IC robot
CN104546235A (zh) 混合型假手
Bandara et al. Development of a multi-DoF transhumeral robotic arm prosthesis
CN108422421A (zh) 骨骼肌肉式机器人的肌肉控制和装配方法
Odesanmi et al. Skill learning framework for human–robot interaction and manipulation tasks
Adjigble et al. An assisted telemanipulation approach: combining autonomous grasp planning with haptic cues
CN109352649A (zh) 一种基于深度学习的机械手控制方法及***
Borghesan et al. Friction compensation and virtual force sensing for robotic hands
Zou et al. The development of six DOF robot arm for intelligent robot
Choudhury et al. Mapping of human arm impedance characteristics in spatial movements
Ducut et al. Design and Development of Robotic Arm Movements and Body Frame for a Social Robot for Graduation Rites
Crăciun et al. Robotic Arm Control via Hand Movements
Zhang et al. Mechanical design and analysis of a novel dexterous hand based on grasping manipulation
CN108638057A (zh) 一种类人机器人双臂运动规划方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130724

Termination date: 20190911