CN103204193A - 一种欠驱动双足机器人行走控制方法 - Google Patents
一种欠驱动双足机器人行走控制方法 Download PDFInfo
- Publication number
- CN103204193A CN103204193A CN2013101202519A CN201310120251A CN103204193A CN 103204193 A CN103204193 A CN 103204193A CN 2013101202519 A CN2013101202519 A CN 2013101202519A CN 201310120251 A CN201310120251 A CN 201310120251A CN 103204193 A CN103204193 A CN 103204193A
- Authority
- CN
- China
- Prior art keywords
- robot
- under
- actuated bipod
- inverted pendulum
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种欠驱动双足机器人快速行走的控制方法,针对双足机器人平面行走控制的问题,采用MACCEPA柔性驱动器,利用双足机器人自身的动力学特性,有效地实现了快速行走。本发明在机器人与地面的不断交互中,充分利用Q学习方法试错学习的能力,在试错中自主学习行走;实现了机器人的稳定、自然、周期的快速行走,具有较强的应用价值。
Description
技术领域
本发明涉及一种双足机器人动力式行走方法,尤其涉及一种欠驱动双足机器人行走控制方法。
背景技术
目前,双足机器人的行走方法主要包括ZMP判据行走和极限环行走。ZMP判据行走要求机器人的零据点始终保持在双足构成的多边形内.ZMP稳定判据规划关节运动轨迹,能实现机器人多种步态的行走。目前,ZMP判据行走的成功实例主要为日本本田公司的ASIMO。但是,ZMP判据行走采用了较多的人为约束,采用高刚度大惯性高增益的电机来精确跟踪期望轨迹,没有充分利用机器人本身的动力学特性,导致高能耗。此外,ZMP判据只能适用于有脚板一类的机器人,无脚板、弧形足等类型的机器人无法定义ZMP点。基于ZMP稳定判据的轨迹规划和轨迹跟踪,在传统双足机器人上得到了广泛而成功应用,而不适用于被动机器人。
极限环行走是二十世纪末出现的一种新的行走理念。受到人类行走的启发,其行走是周期稳定的,即步态序列可以在状态空间中形成一个稳定的极限环,但在步态周期的任意瞬时并不具备局部稳定性。这种方法对机器人的人为约束较少,能充分利用机器人自身的动力学特性,因而具备较高的能量效率、行走速度和抗干扰能力。目前,采用极限环行走原理的欠驱动双足机器人成功实例包括Cornell大学的双足机器人。机器人采用PD控制器,参数需要手动调节,工作量巨大。
传统的刚性驱动器的伺服电机具有高惯性,能耗较大,不能充分利用机器人的自身动力学特性,不适宜欠驱动步行控制。相对而言,柔性驱动器可视为一特殊的弹簧,充分利用双足机器人的动力学特性。并且双足机器人快速步行或者跑动时存在冲击效应。柔性驱动器可有效吸收冲击,有助于实现快速步行。
发明内容
本发明的目的在于针对现有技术的不足,提供一种欠驱动双足机器人行走控制方法。
本发明的目的是通过以下技术方案来实现的:一种欠驱动双足机器人快速行走的控制方法,包括如下步骤:
步骤1:上位机根据安装在欠驱动双足机器人躯干和四肢上的传感器采集机器人初始状态,包括躯干、第一大腿、第二大腿、第一小腿、第二小腿与竖直方向的夹角(θ1,θ2,θ3,θ4,θ5)及其角速度
步骤2:双足机器人建模,包括建立欠驱动双足机器人运动控制模型及其等效倒立摆模型;
步骤3:初始化Q学习网络,包括:初始化RBF神经网络、初始化资格迹Φ0、动作向量A;
步骤4:计算RBF神经网络输出Q(st,a);
步骤5:采用ε-greedy策略选择动作向量at;
步骤6:对机器人进行动力学仿真,根据下式求解欠驱动双足机器人模型,得到新的状态xt+1,st+1和报酬信号强化值rt;
步骤7:更新Q学习网络,包括更新资格迹Φt,计算TD误差e,更新RBF网络权值。
步骤8:重复步骤4-7,直到欠驱动双足机器人的新的状态xt+1和前一状态xt相同,即查找到不动点。
步骤9:上位机将不动点对应的欠驱动双足机器人状态xt和对应的动作向量at输出到欠驱动双足机器人,控制欠驱动双足机器人得到稳定快速的周期步态。
本发明的有益效果是:本发明是采用MACCEPA柔性驱动器的欠驱动双足机器人的控制方法。采用了MACCEPA柔性驱动器,能充分利用双足机器人本身的动力学特性,降低了机器人能耗。并且能有效吸收了机器人碰撞时的冲击,对机器人起到了一定的保护作用。本方法具有快速顺利地控制双足机器人实现了稳定、自然,周期和低能耗的动态步态的优点。
附图说明
图1是欠驱动双足机器人及等效倒立摆模型图;
图2是MACCEPA驱动器示意图;
图3是RBF神经网络示意图;
图4是双足机器人控制框图;
图5是控制流程图。
具体实施方式
如图1所示,双足机器人包括躯干1、第一大腿2、第二大腿3、第一小腿4、第二小腿5,其中,躯干1通过第一电机6与第一大腿2相连,通过第二电机7与第二大腿3相连,第一大腿2通过第三电机8与第一小腿4相连,第二大腿3通过第四电机9与第二小腿5相连。躯干1与竖直方向夹角为θ1,第一大腿2与竖直方向夹角为θ2,第二大腿3与竖直方向夹角为θ3,第一小腿4与竖直方向夹角为θ4,第二小腿5与竖直方向夹角为θ5。欠驱动双足机器人躯干1、第一大腿2、第二大腿3、第一小腿4和第二小腿5的长度和质量分别为li和mi,i=1,2,…,5。在本方法中为了简化计算,需要将机器人模型等效为倒立摆模型。等效倒立摆10与竖直方向夹角为第一电机6、第二电机7、第三电机8和第四电机9均采用MACCEPA(Mechanically Adjustable Compliance and ControllableEquilibrium Position Actuator)柔性驱动电机。如图2所示,包括用于连接的第一杆11、第二杆12以及辅助杆13,如第一电机6的第一杆11与躯干1固定连接,第二杆12与第一大腿2固定连接,其余电机的连接关系以此类推。
MACCEPA柔性驱动器的特征方程如下:
式中,τ为关节力矩,α为双足机器人关节相对角度,为关节相对角速度,k为弹性系数,φ为关节平衡角度,b为驱动器的阻尼常数并取定值,k和φ可调节。因而每个MACCEPA电机有两个控制量k和φ。各电机的控制信号输入端分别与上位机的一个控制信号输出端相连;上位机由工控机来实现,如可以采用PC104工控机。
本发明欠驱动双足机器人快速行走的控制方法,包括如下步骤:
步骤2:欠驱动双足机器人建模,如图1所示。包括建立欠驱动双足机器人运动控制模型及其等效倒立摆模型。机器人的完整的周期行走过程包括摆动过程和碰撞过程。摆动过程是指机器人支撑腿着地,以末端为轴向前转动,同时摆动腿摆动到支撑腿前方,直至摆动腿与地面接触。碰撞过程指摆动过程结束时摆动腿末端与地面发生瞬间碰撞,同时,支撑腿离地。碰撞后,支撑腿转换为摆动腿,摆动腿转换成支撑腿。机器人行走一步是指由由上一次碰撞后开始,经摆动过程到下一次碰撞后结束。
摆动过程中的欠驱动双足机器人的运动控制模型为:
其中D是广义惯量阵,C是离心力和科氏力项,G是重力项,u=(u1,u2,u3,u4)′是外力矩,θ=(θ1,θ2,θ3,θ4,θ5)′。
将欠驱动双足机器人的运动控制模型转换成状态方程:
其中:
式中, f(x)和g(x)是非线性函数。
机器人与地面接触的碰撞过程是一个瞬间过程,指摆动过程结束时摆动腿末端与地面发生瞬间碰撞,利用冲量定理得:
其中,F为碰撞时的外作用力,t-,t+为碰撞前后瞬间;
上式可改写成:
x+=Δ(x-),
为了方便计算,需要将机器人状态x转化为等效倒立摆模型。欠驱动双足机器人等效倒立摆模型参数包括倒立摆的长度L,角度和动能E;
双足机器人的躯干1、第一大腿2、第二大腿3、第一小腿4和第二小腿5的重心位置 为:
等效倒立摆重心位置 为
步骤3:初始化Q学习网络,包括:初始化RBF神经网络、初始化资格迹Φ0、动作向量A;
采用如图3所示的多输入多输出3层RBF神经网络,输入为连续的等效倒立摆状态向量,输出为动作集合所对应的Q值。
输出层:输出层第m个节点的输出值为机器人行走第t步动作向量A中第m个动作向量am对应的Q(st,am),st为t步的等效倒立摆状态。
隐含层与输出层间的网络权值矩阵Wjk,其中j=1,2,…,H,k=1,2,…,M。H为隐含层节点数,M为输出节点数。
资格迹定义为:
其中,
式中,t表示机器人行走过程中当前第t步,p表示机器人之前行走的第p步,sp表示第p步时欠驱动双足机器人等效倒立摆状态,Wt表示第t步的网络权值,λ为资格迹折扣率。
资格迹初始化Φ0=0。
动作向量为A=(k1,φ1,k2,φ2,k3,φ3,k4,φ4),其中k1,k2,k3,k4分别为四个电机的弹性系数,φ1,φ2,φ3,φ4分别为四个电机的平衡角度。
步骤4:计算RBF神经网络输出Q(st,a);
可以计算得:
步骤5:采用ε-greedy策略选择动作向量at;
结合模拟退火算法思想和Boltzmann-Gibbs分布融入伪贪婪算法中,本发明采用了一种随机概率ε随连续步数衰减的ε衰减贪婪算法。随机概率ε衰减的算法为:
ε=ε0·exp(-step/N),
式中,ε0为随机常数初始值,ε0∈(0,1),step为连续行走步数,N为依据实验情况自定义整数。动作选择模块采用ε衰减贪婪算法选择下一步动作at。
步骤6:对机器人进行动力学仿真,根据下式求解欠驱动双足机器人模型,得到新的状态xt+1,st+1和报酬信号强化值rt;
强化学习中报酬信号直接反映了学习效果,当机器人成功行走一步时,上位机继续进行机器人下一步行走的试验;当机器人摔倒时,上位机重新开始下一轮试验。若机器人成功行走一步后其角度与角速度与上一步相同,则认为找到了不动点,此时给出较大的报酬信号。上述的强化学习中的强化值r设置如下:
步骤7:更新Q学习网络。包括更新资格迹Φt,计算TD误差e,更新RBF网络权值。
资格迹更新公式为:
其中:
引入TD(Temporal Difference)误差e,把误差反传到网络中,修改权值与阈值:
其中,rt表示欠驱动双足机器人行走第t步的强化值,Q(st,at)表示第t步所选动作的Q值,Q(st+1,a)表示第t+1步所选动作的Q值。
修改神经网络权值时,结合资格迹思想,RBF网络权值的误差计算公式为:
式中,η为学习速率,γ为折扣因子,η,γ均在区间(0,1)内,r为强化值,st为双足机器人等效倒立摆第t步的状态,st+1为第t+1步的状态,a为动作,at表示第t步时选择的动作,Φt为第t步时的资格迹。在多输入多输出的RBF神经网络中,网络的权值调整仅调整被选中的动作at对应网络权值,其它动作对应的网络权值不进行调整。具体网络权值更新公式如下:
输出层权值增量Δwjk的误差修正公式为:
隐含层节点的宽度参数增量Δσj误差修正公式为:
隐含层节点的中心向量增量Δcij误差修正公式为:
步骤8:重复步骤4-7,直到欠驱动双足机器人的新的状态xt+1和前一状态xt相同,即查找到不动点。
步骤9:上位机将不动点对应的欠驱动双足机器人状态xt和对应的动作向量at输出到欠驱动双足机器人,控制欠驱动双足机器人得到稳定快速的周期步态。
本发明是采用MACCEPA柔性驱动器的欠驱动双足机器人的控制方法。MACCEPA柔性驱动器能充分利用双足机器人本身的动力学特性,降低机器人能耗。并能有效吸收了机器人碰撞时的冲击,对机器人起到了一定的保护作用。本方法具有快速顺利地控制欠驱动双足机器人实现了稳定、自然,周期和低能耗的动态步态的优点。
Claims (6)
1.一种欠驱动双足机器人快速行走的控制方法,其特征在于,包括如下步骤:步骤1:上位机根据安装在欠驱动双足机器人躯干和四肢上的传感器采集机器人初始状态,包括躯干、第一大腿、第二大腿、第一小腿、第二小腿与竖直方向的夹角(θ1,θ2,θ3,θ4,θ5)及其角速度
步骤2:双足机器人建模,包括建立欠驱动双足机器人运动控制模型及其等效倒立摆模型;
步骤3:初始化Q学习网络,包括:初始化RBF神经网络、资格迹Φ0和动作向量A;
步骤4:计算RBF神经网络输出Q(st,a);
步骤5:采用ε-greedy策略选择动作向量at;
步骤6:对机器人进行动力学仿真,根据下式求解欠驱动双足机器人模型,得到新的状态xt+1,st+1和报酬信号强化值rt;
步骤7:更新Q学习网络,包括更新资格迹Φt,计算TD误差e,更新RBF网络权值;
步骤8:重复步骤4-7,直到欠驱动双足机器人的新的状态xt+1和前一状态xt相同,即查找到不动点;
步骤9:上位机将不动点对应的欠驱动双足机器人状态xt和对应的动作向量at输出到欠驱动双足机器人,控制欠驱动双足机器人得到稳定快速的周期步态。
2.根据权利要求1所述欠驱动双足机器人快速行走的控制方法,其特征在于,所述步骤2具体为:摆动过程中的欠驱动双足机器人的运动控制模型为:
其中,D是广义惯量阵,C是离心力和科氏力项,G是重力项,u=(u1,u2,u3,u4)′是 外力矩,θ=(θ1,θ2,θ3,θ4,θ5)′,
将欠驱动双足机器人的运动控制模型转换成状态方程:
其中:
机器人与地面接触的碰撞过程是一个瞬间过程,指摆动过程结束时摆动腿末端与地面发生瞬间碰撞,利用冲量定理得:
其中,F为碰撞时的外作用力,t-,t+为碰撞前后瞬间;
上式可改写成:
x+=Δ(x-),
3.根据权利要求1所述欠驱动双足机器人快速行走的控制方法,其特征在于,所述步骤3具体为:采用多输入多输出3层RBF神经网络,输入为连续的等效倒立摆状态向量,输出为动作集合所对应的Q值,
输出层:输出层第m个节点的输出值为机器人行走第t步动作向量A中第m个动作向量am对应的Q(st,am),st为t步的等效倒立摆状态,
隐含层与输出层间的网络权值矩阵Wjk,其中j=1,2,…,H,k=1,2,…,M,H为隐含层节点数,M为输出节点数,
资格迹定义为:
其中,
式中,t表示机器人行走过程中当前第t步,p表示机器人之前行走的第p步,sp表示第p步时欠驱动双足机器人等效倒立摆状态,Wt表示第t步的网络权值,λ为资格迹折扣率。资格迹初始化Φ0=0,
动作向量为A=(k1,φ1,k2,φ2,k3,φ3,k4,φ4),其中k1,k2,k3,k4分别为四个电机的弹性系数,φ1,φ2,φ3,φ4分别为四个电机的平衡角度。
5.根据权利要求1所述欠驱动双足机器人快速行走的控制方法,其特征在于,所述步骤5具体为:采用了随机概率ε随连续步数衰减的ε衰减贪婪算法选择动作:
ε=ε0·exp(-step/N),
式中,ε0为随机常数初始值,ε0∈(0,1),step为连续行走步数,N为依据实验情况自定义整数。
6.根据权利要求1所述欠驱动双足机器人快速行走的控制方法,其特征在于,所述步骤6具体为:对机器人进行动力学仿真,根据下式求解欠驱动双足机器人模型,得到新的状态xt+1,st+1和报酬信号强化值rt;
强化学习中报酬信号直接反映了学习效果,当机器人成功行走一步时,上位机继续进行机器人下一步行走的试验;当机器人摔倒时,上位机重新开始下一轮试验。若机器人成功行走一步后其角度与角速度与上一步相同则认为找到了不动点,此时给出较大的报酬信号。上述的强化学习中的强化值r设置如下:
步骤7:更新Q学习网络,包括更新资格迹Φt,计算TD误差e,更新RBF网络权值,
资格迹更新公式为:
其中:
引入TD(Temporal Difference)误差e,把误差反传到网络中,修改权值与阈值:
其中,rt表示欠驱动双足机器人行走第t步的强化值,Q(st,at)表示第t步所选动作的Q值,Q(st+1,a)表示第t+1步所选动作的Q值,
修改神经网络权值时,结合资格迹思想,RBF网络权值的误差计算公式为:
式中,η为学习速率,γ为折扣因子,η,γ均在区间(0,1)内,r为强化值,st为双足机器人等效倒立摆第t步的状态,st+1为第t+1步的状态,a为动作,at表示第t步时选择的动作,Φt为第t步时的资格迹。在多输入多输出的RBF神经网络中,网络的权值调整仅调整被选中的动作at对应网络权值,其它动作对应的网络权值不进行调整。具体网络权值更新公式如下:
输出层权值增量Δwjk的误差修正公式为:
隐含层节点的宽度参数增量Δσj误差修正公式为:
隐含层节点的中心向量增量Δcij误差修正公式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310120251.9A CN103204193B (zh) | 2013-04-08 | 2013-04-08 | 一种欠驱动双足机器人行走控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310120251.9A CN103204193B (zh) | 2013-04-08 | 2013-04-08 | 一种欠驱动双足机器人行走控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103204193A true CN103204193A (zh) | 2013-07-17 |
CN103204193B CN103204193B (zh) | 2015-10-07 |
Family
ID=48751651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310120251.9A Expired - Fee Related CN103204193B (zh) | 2013-04-08 | 2013-04-08 | 一种欠驱动双足机器人行走控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103204193B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104932264A (zh) * | 2015-06-03 | 2015-09-23 | 华南理工大学 | 基于rbf网络的q学习框架仿人机器人稳定控制方法 |
CN105329333A (zh) * | 2015-11-20 | 2016-02-17 | 清华大学 | 基于延迟反馈的双足机器人行走非单周期步态控制方法 |
CN105938364A (zh) * | 2016-01-15 | 2016-09-14 | 浙江大学 | 一种3d欠驱动双足机器人的动力学模型计算方法 |
CN106096286A (zh) * | 2016-06-15 | 2016-11-09 | 北京千安哲信息技术有限公司 | 临床路径制定方法及装置 |
CN106094813A (zh) * | 2016-05-26 | 2016-11-09 | 华南理工大学 | 基于模型相关强化学习的仿人机器人步态控制方法 |
CN104331081B (zh) * | 2014-10-10 | 2017-11-07 | 北京理工大学 | 一种双足机器人斜面行走的步态规划方法 |
CN107891920A (zh) * | 2017-11-08 | 2018-04-10 | 北京理工大学 | 一种用于双足机器人的腿部关节补偿角度自动获取方法 |
CN111142378A (zh) * | 2020-01-07 | 2020-05-12 | 四川省桑瑞光辉标识***股份有限公司 | 一种双足机器人神经网络控制器的神经网络优化方法 |
CN111198581A (zh) * | 2020-01-17 | 2020-05-26 | 同济大学 | 虚拟被动行走机器人速度调节方法及装置、存储介质终端 |
CN111891249A (zh) * | 2020-06-19 | 2020-11-06 | 浙江大学 | 一种液压六足机器人及基于质心起伏的行走步态控制方法 |
CN112446289A (zh) * | 2020-09-25 | 2021-03-05 | 华南理工大学 | 一种提高p300拼写器性能的方法 |
CN112859901A (zh) * | 2021-01-21 | 2021-05-28 | 北京理工大学 | 一种仿人机器人连续动态稳定跳跃控制方法 |
CN113050409A (zh) * | 2019-12-28 | 2021-06-29 | 深圳市优必选科技股份有限公司 | 仿人机器人及其控制方法以及计算机可读存储介质 |
CN113220004A (zh) * | 2021-04-15 | 2021-08-06 | 海南大熊软件科技有限公司 | 四足机器人步态控制方法、四足机器人以及计算机可读存储介质 |
CN113467235A (zh) * | 2021-06-10 | 2021-10-01 | 清华大学 | 双足机器人步态控制方法、控制装置 |
CN113467481A (zh) * | 2021-08-11 | 2021-10-01 | 哈尔滨工程大学 | 一种基于改进Sarsa算法的路径规划方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080001228A (ko) * | 2006-06-29 | 2008-01-03 | 명지대학교 산학협력단 | 이족 로봇의 계단 보행 방법 |
CN101323325A (zh) * | 2008-07-04 | 2008-12-17 | 清华大学 | 一种双足机器人动力式行走方法 |
KR20100093834A (ko) * | 2009-02-17 | 2010-08-26 | 동아대학교 산학협력단 | 이족 인간형 로봇의 계단 오르기를 위한 최적 궤적 설계 방법 |
CN102910218A (zh) * | 2012-10-17 | 2013-02-06 | 同济大学 | 一种具有屈膝行为的双足被动行走步态控制方法 |
-
2013
- 2013-04-08 CN CN201310120251.9A patent/CN103204193B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080001228A (ko) * | 2006-06-29 | 2008-01-03 | 명지대학교 산학협력단 | 이족 로봇의 계단 보행 방법 |
CN101323325A (zh) * | 2008-07-04 | 2008-12-17 | 清华大学 | 一种双足机器人动力式行走方法 |
KR20100093834A (ko) * | 2009-02-17 | 2010-08-26 | 동아대학교 산학협력단 | 이족 인간형 로봇의 계단 오르기를 위한 최적 궤적 설계 방법 |
CN102910218A (zh) * | 2012-10-17 | 2013-02-06 | 同济大学 | 一种具有屈膝行为的双足被动行走步态控制方法 |
Non-Patent Citations (1)
Title |
---|
彭自强: "基于Q学习和神经网络的双足机器人控制", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331081B (zh) * | 2014-10-10 | 2017-11-07 | 北京理工大学 | 一种双足机器人斜面行走的步态规划方法 |
CN104932264B (zh) * | 2015-06-03 | 2018-07-20 | 华南理工大学 | 基于rbf网络的q学习框架仿人机器人稳定控制方法 |
CN104932264A (zh) * | 2015-06-03 | 2015-09-23 | 华南理工大学 | 基于rbf网络的q学习框架仿人机器人稳定控制方法 |
CN105329333A (zh) * | 2015-11-20 | 2016-02-17 | 清华大学 | 基于延迟反馈的双足机器人行走非单周期步态控制方法 |
CN105938364A (zh) * | 2016-01-15 | 2016-09-14 | 浙江大学 | 一种3d欠驱动双足机器人的动力学模型计算方法 |
CN105938364B (zh) * | 2016-01-15 | 2018-09-25 | 浙江大学 | 一种3d欠驱动双足机器人的动力学模型计算方法 |
CN106094813A (zh) * | 2016-05-26 | 2016-11-09 | 华南理工大学 | 基于模型相关强化学习的仿人机器人步态控制方法 |
CN106094813B (zh) * | 2016-05-26 | 2019-01-18 | 华南理工大学 | 基于模型相关强化学习的仿人机器人步态控制方法 |
CN106096286A (zh) * | 2016-06-15 | 2016-11-09 | 北京千安哲信息技术有限公司 | 临床路径制定方法及装置 |
CN107891920A (zh) * | 2017-11-08 | 2018-04-10 | 北京理工大学 | 一种用于双足机器人的腿部关节补偿角度自动获取方法 |
CN113050409A (zh) * | 2019-12-28 | 2021-06-29 | 深圳市优必选科技股份有限公司 | 仿人机器人及其控制方法以及计算机可读存储介质 |
CN113050409B (zh) * | 2019-12-28 | 2023-12-01 | 深圳市优必选科技股份有限公司 | 仿人机器人及其控制方法以及计算机可读存储介质 |
CN111142378A (zh) * | 2020-01-07 | 2020-05-12 | 四川省桑瑞光辉标识***股份有限公司 | 一种双足机器人神经网络控制器的神经网络优化方法 |
CN111198581B (zh) * | 2020-01-17 | 2021-02-12 | 同济大学 | 虚拟被动行走机器人速度调节方法及装置、存储介质终端 |
CN111198581A (zh) * | 2020-01-17 | 2020-05-26 | 同济大学 | 虚拟被动行走机器人速度调节方法及装置、存储介质终端 |
CN111891249A (zh) * | 2020-06-19 | 2020-11-06 | 浙江大学 | 一种液压六足机器人及基于质心起伏的行走步态控制方法 |
CN112446289A (zh) * | 2020-09-25 | 2021-03-05 | 华南理工大学 | 一种提高p300拼写器性能的方法 |
CN112446289B (zh) * | 2020-09-25 | 2023-08-22 | 华南理工大学 | 一种提高p300拼写器性能的方法 |
CN112859901A (zh) * | 2021-01-21 | 2021-05-28 | 北京理工大学 | 一种仿人机器人连续动态稳定跳跃控制方法 |
CN113220004A (zh) * | 2021-04-15 | 2021-08-06 | 海南大熊软件科技有限公司 | 四足机器人步态控制方法、四足机器人以及计算机可读存储介质 |
CN113467235A (zh) * | 2021-06-10 | 2021-10-01 | 清华大学 | 双足机器人步态控制方法、控制装置 |
CN113467235B (zh) * | 2021-06-10 | 2022-09-02 | 清华大学 | 双足机器人步态控制方法、控制装置 |
CN113467481A (zh) * | 2021-08-11 | 2021-10-01 | 哈尔滨工程大学 | 一种基于改进Sarsa算法的路径规划方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103204193B (zh) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103204193B (zh) | 一种欠驱动双足机器人行走控制方法 | |
Dadashzadeh et al. | From template to anchor: A novel control strategy for spring-mass running of bipedal robots | |
CN104932264B (zh) | 基于rbf网络的q学习框架仿人机器人稳定控制方法 | |
Fujiwara et al. | Towards an optimal falling motion for a humanoid robot | |
Remy et al. | A matlab framework for efficient gait creation | |
Deng et al. | Level-ground walking for a bipedal robot with a torso via hip series elastic actuators and its gait bifurcation control | |
Visser et al. | Control strategy for energy-efficient bipedal walking with variable leg stiffness | |
CN103750927B (zh) | 下肢假肢膝关节自适应迭代学习控制方法 | |
CN104898672A (zh) | 一种仿人机器人行走轨迹的优化控制方法 | |
Ma et al. | Efficient HZD gait generation for three-dimensional underactuated humanoid running | |
Added et al. | Control of the passive dynamic gait of the bipedal compass-type robot through trajectory tracking | |
Nakada et al. | Learning arm motion strategies for balance recovery of humanoid robots | |
Chen et al. | A strategy for push recovery in quadruped robot based on reinforcement learning | |
CN105329333B (zh) | 基于延迟反馈的双足机器人行走非单周期步态控制方法 | |
An et al. | Gait transition of quadruped robot using rhythm control and stability analysis | |
Godage et al. | Energy based control of compass gait soft limbed bipeds | |
Mao et al. | A reinforcement learning based dynamic walking control | |
Yi et al. | Variable speed running on kneed biped robot with underactuation degree two | |
Yang et al. | Truncated Fourier series formulation for bipedal walking balance control | |
Takano et al. | Analysis of biped running with rotational inerter | |
Kobayashi et al. | Optimal use of arm-swing for bipedal walking control | |
Chew et al. | Frontal plane algorithms for dynamic bipedal walking | |
Danesh et al. | Stabilization of Unstable Limit Cycles in a Push-off Based Dynamic Walker by Reversible Switching Surfaces | |
CN105467841A (zh) | 一种类人机器人上肢运动的类神经控制方法 | |
Takahashi et al. | Behavioral development of ball kicking motion of a two-wheeled inverted pendulum mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151007 Termination date: 20190408 |
|
CF01 | Termination of patent right due to non-payment of annual fee |