CN106913445A - 上肢机器人运动控制方法及上肢机器人 - Google Patents

上肢机器人运动控制方法及上肢机器人 Download PDF

Info

Publication number
CN106913445A
CN106913445A CN201510993967.9A CN201510993967A CN106913445A CN 106913445 A CN106913445 A CN 106913445A CN 201510993967 A CN201510993967 A CN 201510993967A CN 106913445 A CN106913445 A CN 106913445A
Authority
CN
China
Prior art keywords
patient
upper limbs
motion
robot
sight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510993967.9A
Other languages
English (en)
Inventor
崔梦锁
聂庆兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Delivering Inspiration & Health Technology Medical Technology Co Ltd
Original Assignee
Beijing Delivering Inspiration & Health Technology Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Delivering Inspiration & Health Technology Medical Technology Co Ltd filed Critical Beijing Delivering Inspiration & Health Technology Medical Technology Co Ltd
Priority to CN201510993967.9A priority Critical patent/CN106913445A/zh
Publication of CN106913445A publication Critical patent/CN106913445A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0274Stretching or bending or torsioning apparatus for exercising for the upper limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user

Landscapes

  • Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明公开了一种上肢机器人运动控制方法及上肢机器人,其中上肢机器人运动控制方法包括:对于使用上肢机器人的患者,将近红外光投射于患者眼球;捕捉患者眼球对近红外光的反射图像;根据患者眼球对近红外光的反射图像,确定患者视线的运动特征;根据患者视线的运动特征,控制上肢机器人的运动。本发明可以能够通过患者视线的运动特征确认患者在运动时的感受,使上肢机器人的运动灵活适应于患者在运动时的感受,进而改善患者的康复训练效果。

Description

上肢机器人运动控制方法及上肢机器人
技术领域
本发明涉及临床康复医学技术领域,尤其涉及上肢机器人运动控制方法及上肢机器人。
背景技术
临床康复医学实践证实:神经疾病和损伤后的功能是可以康复的;大脑是有可塑性的,脑损伤后大脑功能也是可以重组的。许多脑损伤患者经过康复,恢复了受损的神经功能,甚至重返工作岗位,这样的例子举不胜举。上肢机器人通过大量的目标导向式重复性运动刺激,对上肢有运动功能障碍的脑损伤患者进行基于脑功能重塑理论的康复训练,让患者学会正确的上肢运动模式。发明人在实现本发明的过程中,发现现有技术中的上肢机器人只能进行机械式的运动,不能根据患者在运动时的感受灵活调整运动方式。
发明内容
本发明实施例提供一种上肢机器人运动控制方法,用以使上肢机器人的运动适应于患者在运动时的感受,该方法包括:
对于使用上肢机器人的患者,将近红外光投射于患者眼球;
捕捉患者眼球对近红外光的反射图像;
根据患者眼球对近红外光的反射图像,确定患者视线的运动特征;
根据患者视线的运动特征,控制上肢机器人的运动。
一个实施例中,根据患者眼球对近红外光的反射图像,确定患者视线的运动特征,包括:
对反射图像进行瞳孔检测及眨眼检测;
根据瞳孔检测结果在反射图像中进行瞳孔定位;
在反射图像中进行基准光点定位;
根据瞳孔定位结果和基准光点定位结果,进行视线方向计算;
根据眨眼检测结果和视线方向计算结果,确定患者视线的运动特征。
一个实施例中,患者视线的运动特征包括:患者视线的运动路径、频率、位置及时长其中之一或任意组合。
一个实施例中,根据患者视线的运动特征,控制上肢机器人的运动,包括:
根据患者视线的运动特征,调整上肢机器人的运动模式和/或控制上肢机器人的运动进程。
一个实施例中,上肢机器人的运动模式包括:
被动诱发模式、单点触发模式、多点触发模式、连续运动模式、主动控制模式、抗阻运动模式及扰动模式其中之一或任意组合。
本发明实施例还提供一种上肢机器人,用以使上肢机器人的运动适应于患者在运动时的感受,该上肢机器人包括:
眼动仪,用于对使用上肢机器人的患者,将近红外光投射于患者眼球;捕捉患者眼球对近红外光的反射图像;根据患者眼球对近红外光的反射图像,确定并输出患者视线的运动特征;
运动控制模块,用于根据眼动仪输出的患者视线的运动特征,控制上肢机器人的运动。
一个实施例中,眼动仪包括:
微型投影仪,用于将近红外光投射于患者眼球;
图像传感器,用于捕捉患者眼球对近红外光的反射图像;
图像处理模块,用于根据患者眼球对近红外光的反射图像,确定患者视线的运动特征。
一个实施例中,图像处理模块具体用于:
对反射图像进行瞳孔检测及眨眼检测;
根据瞳孔检测结果在反射图像中进行瞳孔定位;
在反射图像中进行基准光点定位;
根据瞳孔定位结果和基准光点定位结果,进行视线方向计算;
根据眨眼检测结果和视线方向计算结果,确定患者视线的运动特征。
一个实施例中,运动控制模块具体用于:
根据患者视线的运动特征,调整上肢机器人的运动模式和/或控制上肢机器人的运动进程。
一个实施例中,上肢机器人的运动模式包括:
被动诱发模式、单点触发模式、多点触发模式、连续运动模式、主动控制模式、抗阻运动模式及扰动模式其中之一或任意组合。
本发明实施例中,对于使用上肢机器人的患者,将近红外光投射于患者眼球;捕捉患者眼球对近红外光的反射图像;根据患者眼球对近红外光的反射图像,确定患者视线的运动特征;根据患者视线的运动特征,控制上肢机器人的运动,从而能够通过患者视线的运动特征确认患者在运动时的感受,使上肢机器人的运动灵活适应于患者在运动时的感受,进而改善患者的康复训练效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明实施例中上肢机器人运动控制方法的流程图;
图2为本发明实施例中确定患者视线运动特征的示例图;
图3为本发明实施例中上肢机器人的结构示意图;
图4为本发明实施例中图3所示上肢机器人的具体实例图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
发明人发现,现有技术中的上肢机器人只能进行机械式的运动,例如在设定了某一种运动模式后开启上肢机器人,上肢机器人就会按该种运动模式在规定时间内带动患者进行康复训练,在此过程中不会因为患者在运动时的感受不同而去调整运动方式,这可能使患者的康复训练效果不佳,甚至使患者在运动时出现危险。在实际进行康复训练时,掌握好康复的原则关系到如何使神经***损伤能够得到最好的恢复。康复训练的原则一般包括:
1、早期康复:
一般来说,一旦患者的病情稳定48~72小时后,就可以考虑开始康复训练了。早期康复的目的在于最大程度地保留患者尚存的功能,避免由于“制动”或“废用”造成的“废用综合征”并进行残疾的二级预防。
2、主动性康复:
随着学术界对神经可塑性和功能重组理论和实践的深入研究,人们已经明确了损伤后神经功能的恢复和重建在很大程度上是具有康复处理的实践依赖性、时间依赖性和剂量依赖性的。主动性康复强调患者主动完成神经功能活动,而不是依赖被动性运动。神经康复要想取得“最大化”效果,必须依赖患者主动参与各项神经功能活动。被动性康复手段应尽量减少。
3、适宜性康复:
这项原则是相对于不正确地使用康复技术而言。只有使用适宜的康复技术,才能使神经功能沿着正确的康复轨迹前进,少走弯路。例如,痉挛几乎是每个脑损伤患者康复过程必经的阶段。不恰当地训练上下肢力量,可以加重上肢屈肌、下肢伸肌痉挛模式,最终使患者遗留残疾。如此甚至可以说“不恰当地训练比不训练还要糟糕”。
4、强化康复:
按照患者实际尚存的功能和可能恢复的潜在能力,制订出一个恰到好处的康复程序,使患者通过反复的实践确实地获得功能的进步,就必须对“实践”这种功能付出必要的“时间”,并且要达到一定的“剂量”。付出的时间太少,要求的剂量太低,康复的效果出不来;反之,时间和剂量超出患者的承受能力,会适得其反,患者的功能不但不会进步,反而会退步,甚至产生严重的合并症和并发症,使康复性活动不得不停止下来。
发明人发现,将眼动技术应用于上肢机器人,结合上述康复原则来看,恰好是一种有益的补充。眼动技术的最大作用,在于识别用户意图。基于此,已被广泛应用于各种领域,比如阅读研究、可用性研究、广告效果测试等。在本发明实施例中,将眼动技术应用于上肢机器人,利用到眼动技术的最大特点,即对运动意图的感知和判断,于患者而言,其实是一种控制感和成就感的提升。通过眼动技术,上肢机器人就可识别患者的运动意图,给患者一种感觉是他在主导整个训练过程,这毫无疑问会大大提升患者的主动性和成就感,符合主动康复原则。当患者感觉不适时,可以通过调整视力来影响训练进程,提醒治疗师注意,进而修改训练计划,符合适宜性康复原则。
基于此,在本发明实施例中提供一种上肢机器人运动控制方法,使上肢机器人的运动适应于患者在运动时的感受。图1为本发明实施例中上肢机器人运动控制方法的流程图,如图1所示,该方法可以包括:
步骤101、对于使用上肢机器人的患者,将近红外光投射于患者眼球;
步骤102、捕捉患者眼球对近红外光的反射图像;
步骤103、根据患者眼球对近红外光的反射图像,确定患者视线的运动特征;
步骤104、根据患者视线的运动特征,控制上肢机器人的运动。
由图1所示流程可以得知,本发明实施例中能够通过患者视线的运动特征确认患者在运动时的感受,使上肢机器人的运动灵活适应于患者在运动时的感受,进而改善患者的康复训练效果。
具体实施时,对于使用上肢机器人的患者,将近红外光投射于患者眼球,由于眼球后部的照片反光特性而形成了一个瞳孔分明的亮暗区域,以此作为后续图像处理的输入。实施例中可以使用微型投影仪等设备投射近红外光作用于眼球。在将近红外光投射于患者眼球后,捕捉患者眼球对近红外光的反射图像。实施例中可以使用图像传感器等设备以高帧率捕捉生成大量的人眼反射图像。
在捕捉到患者眼球对近红外光的反射图像后,根据患者眼球对近红外光的反射图像,确定患者视线的运动特征。举一例说明根据患者眼球对近红外光的反射图像确定患者视线的运动特征的具体过程。图2为本例中确定患者视线运动特征的示意图,如图2所示,根据患者眼球对近红外光的反射图像确定患者视线的运动特征,可以包括:
步骤201、对反射图像进行瞳孔检测及眨眼检测;
步骤202、根据瞳孔检测结果在反射图像中进行瞳孔定位;
步骤203、在反射图像中进行基准光点定位;
步骤204、根据瞳孔定位结果和基准光点定位结果,进行视线方向计算;
步骤205、根据眨眼检测结果和视线方向计算结果,确定患者视线的运动特征。
实施例中,还可以在采集到眼部图像之后,进行图像预处理,以便提高后续图像处理结果的准确度。实施例中,在获得了眨眼检测结果和视线方向计算结果后,可以确定相应的事件消息,例如根据眼球反射模式及眼球图像细节得到的人眼位置及注视点。在进行事件消息处理之后,将处理结果反馈至上肢机器人进行运动控制。
上述将近红外光投射于患者眼球,以及捕捉患者眼球对近红外光的反射图像并进行图像处理的过程可以采用眼动仪等设备来实施。眼动仪最终输出的是患者视线的运动特征,比如包括:患者视线的运动路径、频率、位置及时长等其中之一或任意组合。
在获得患者视线的运动特征后,即可根据患者视线的运动特征,控制上肢机器人的运动。实施例中,可以根据患者视线的运动特征,调整上肢机器人的运动模式和/或控制上肢机器人的运动进程。
其中,上肢机器人的运动模式例如可以包括:被动诱发模式、单点触发模式、多点触发模式、连续运动模式、主动控制模式、抗阻运动模式及扰动模式其中之一或任意组合。
实施例中,上肢机器人可以应用经典的远端驱动式智能化上肢康复技术,符合脑功能重塑理论的7种运动模式(被动诱发、单点触发、多点触发、连续运动、主动控制、抗阻运动及扰动模式),满足不同患者从早期被动到后期主动抗阻的康复训练,让患者尽早建立正确的上肢运动模式,并不断提高患者上肢的运动控制能力和准确性。
基于同一发明构思,本发明实施例中还提供了一种上肢机器人,如下面的实施例所述。由于该上肢机器人解决问题的原理与上肢机器人运动控制方法相似,因此该上肢机器人的实施可以参见上肢机器人运动控制方法的实施,重复之处不再赘述。
图3为本发明实施例中上肢机器人的结构示意图。如图3所示,本发明实施例中上肢机器人可以包括:
眼动仪301,用于对使用上肢机器人的患者,将近红外光投射于患者眼球;捕捉患者眼球对近红外光的反射图像;根据患者眼球对近红外光的反射图像,确定并输出患者视线的运动特征;
运动控制模块302,用于根据眼动仪输出的患者视线的运动特征,控制上肢机器人的运动。
图4为本发明实施例中图3所示上肢机器人的具体实例图。图4中眼动仪301可以包括:
微型投影仪401,用于将近红外光投射于患者眼球;
图像传感器402,用于捕捉患者眼球对近红外光的反射图像;
图像处理模块403,用于根据患者眼球对近红外光的反射图像,确定患者视线的运动特征。
实施例中,图像处理模块403具体可以用于:
对反射图像进行瞳孔检测及眨眼检测;
根据瞳孔检测结果在反射图像中进行瞳孔定位;
在反射图像中进行基准光点定位;
根据瞳孔定位结果和基准光点定位结果,进行视线方向计算;
根据眨眼检测结果和视线方向计算结果,确定患者视线的运动特征。
实施例中,患者视线的运动特征可以包括:患者视线的运动路径、频率、位置及时长其中之一或任意组合。
实施例中,运动控制模块302具体可以用于:
根据患者视线的运动特征,调整上肢机器人的运动模式和/或控制上肢机器人的运动进程。
实施例中,上肢机器人的运动模式可以包括:
被动诱发模式、单点触发模式、多点触发模式、连续运动模式、主动控制模式、抗阻运动模式及扰动模式其中之一或任意组合。
综上所述,本发明实施例中,对于使用上肢机器人的患者,将近红外光投射于患者眼球;捕捉患者眼球对近红外光的反射图像;根据患者眼球对近红外光的反射图像,确定患者视线的运动特征;根据患者视线的运动特征,控制上肢机器人的运动,从而能够通过患者视线的运动特征确认患者在运动时的感受,使上肢机器人的运动灵活适应于患者在运动时的感受,进而改善患者的康复训练效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种上肢机器人运动控制方法,其特征在于,包括:
对于使用上肢机器人的患者,将近红外光投射于患者眼球;
捕捉患者眼球对近红外光的反射图像;
根据患者眼球对近红外光的反射图像,确定患者视线的运动特征;
根据患者视线的运动特征,控制上肢机器人的运动。
2.如权利要求1所述的方法,其特征在于,所述根据患者眼球对近红外光的反射图像,确定患者视线的运动特征,包括:
对所述反射图像进行瞳孔检测及眨眼检测;
根据瞳孔检测结果在所述反射图像中进行瞳孔定位;
在所述反射图像中进行基准光点定位;
根据瞳孔定位结果和基准光点定位结果,进行视线方向计算;
根据眨眼检测结果和视线方向计算结果,确定患者视线的运动特征。
3.如权利要求1所述的方法,其特征在于,所述患者视线的运动特征包括:患者视线的运动路径、频率、位置及时长其中之一或任意组合。
4.如权利要求1所述的方法,其特征在于,所述根据患者视线的运动特征,控制上肢机器人的运动,包括:
根据患者视线的运动特征,调整上肢机器人的运动模式和/或控制上肢机器人的运动进程。
5.如权利要求4所述的方法,其特征在于,所述上肢机器人的运动模式包括:
被动诱发模式、单点触发模式、多点触发模式、连续运动模式、主动控制模式、抗阻运动模式及扰动模式其中之一或任意组合。
6.一种上肢机器人,其特征在于,包括:
眼动仪,用于对使用上肢机器人的患者,将近红外光投射于患者眼球;捕捉患者眼球对近红外光的反射图像;根据患者眼球对近红外光的反射图像,确定并输出患者视线的运动特征;
运动控制模块,用于根据眼动仪输出的患者视线的运动特征,控制上肢机器人的运动。
7.如权利要求6所述的上肢机器人,其特征在于,所述眼动仪包括:
微型投影仪,用于将近红外光投射于患者眼球;
图像传感器,用于捕捉患者眼球对近红外光的反射图像;
图像处理模块,用于根据患者眼球对近红外光的反射图像,确定患者视线的运动特征。
8.如权利要求7所述的上肢机器人,其特征在于,所述图像处理模块具体用于:
对所述反射图像进行瞳孔检测及眨眼检测;
根据瞳孔检测结果在所述反射图像中进行瞳孔定位;
在所述反射图像中进行基准光点定位;
根据瞳孔定位结果和基准光点定位结果,进行视线方向计算;
根据眨眼检测结果和视线方向计算结果,确定患者视线的运动特征。
9.如权利要求6所述的上肢机器人,其特征在于,所述运动控制模块具体用于:
根据患者视线的运动特征,调整上肢机器人的运动模式和/或控制上肢机器人的运动进程。
10.如权利要求9所述的上肢机器人,其特征在于,所述上肢机器人的运动模式包括:
被动诱发模式、单点触发模式、多点触发模式、连续运动模式、主动控制模式、抗阻运动模式及扰动模式其中之一或任意组合。
CN201510993967.9A 2015-12-25 2015-12-25 上肢机器人运动控制方法及上肢机器人 Pending CN106913445A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510993967.9A CN106913445A (zh) 2015-12-25 2015-12-25 上肢机器人运动控制方法及上肢机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510993967.9A CN106913445A (zh) 2015-12-25 2015-12-25 上肢机器人运动控制方法及上肢机器人

Publications (1)

Publication Number Publication Date
CN106913445A true CN106913445A (zh) 2017-07-04

Family

ID=59455629

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510993967.9A Pending CN106913445A (zh) 2015-12-25 2015-12-25 上肢机器人运动控制方法及上肢机器人

Country Status (1)

Country Link
CN (1) CN106913445A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111281762A (zh) * 2018-12-07 2020-06-16 广州幻境科技有限公司 一种视力康复训练方法及***
CN112891137A (zh) * 2021-01-21 2021-06-04 深圳华鹊景医疗科技有限公司 上肢康复机器人***、机器人控制方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102309366A (zh) * 2011-07-21 2012-01-11 山东科技大学 用眼动信号控制上假肢运动的控制***和控制方法
CN102830797A (zh) * 2012-07-26 2012-12-19 深圳先进技术研究院 一种基于视线判断的人机交互方法及***
CN104881129A (zh) * 2015-06-19 2015-09-02 石狮市智诚通讯器材贸易有限公司 眼动控制的智能终端控制设备及控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102309366A (zh) * 2011-07-21 2012-01-11 山东科技大学 用眼动信号控制上假肢运动的控制***和控制方法
CN102830797A (zh) * 2012-07-26 2012-12-19 深圳先进技术研究院 一种基于视线判断的人机交互方法及***
CN104881129A (zh) * 2015-06-19 2015-09-02 石狮市智诚通讯器材贸易有限公司 眼动控制的智能终端控制设备及控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111281762A (zh) * 2018-12-07 2020-06-16 广州幻境科技有限公司 一种视力康复训练方法及***
CN112891137A (zh) * 2021-01-21 2021-06-04 深圳华鹊景医疗科技有限公司 上肢康复机器人***、机器人控制方法及装置

Similar Documents

Publication Publication Date Title
US10950336B2 (en) System and method for pre-action training and control
US11488726B2 (en) System, method and apparatus for treatment of neglect
Adamovich et al. A virtual reality—based exercise system for hand rehabilitation post-stroke
Park et al. Assessment of cognitive engagement in stroke patients from single-trial EEG during motor rehabilitation
Lupu et al. BCI and FES based therapy for stroke rehabilitation using VR facilities
Kouris et al. HOLOBALANCE: An Augmented Reality virtual trainer solution forbalance training and fall prevention
Tidoni et al. The role of audio-visual feedback in a thought-based control of a humanoid robot: a BCI study in healthy and spinal cord injured people
King et al. Does the “eyes lead the hand” principle apply to reach-to-grasp movements evoked by unexpected balance perturbations?
Simonetti et al. Multimodal adaptive interfaces for 3D robot-mediated upper limb neuro-rehabilitation: An overview of bio-cooperative systems
Rechy-Ramirez et al. Impact of commercial sensors in human computer interaction: a review
Aguilar-Lazcano et al. Interaction modalities used on serious games for upper limb rehabilitation: a systematic review
Casas et al. Human-robot interaction for rehabilitation scenarios
CN109126045A (zh) 智能化运动分析和训练***
CN106913445A (zh) 上肢机器人运动控制方法及上肢机器人
San Luis et al. Immersive virtual reality as a supplement in the rehabilitation program of post-stroke patients
Li et al. Current status of robotic stroke rehabilitation and opportunities for a cyber-physically assisted upper limb stroke rehabilitation
US20180360368A1 (en) Method and System for the Assessment and Rehabilitation of Neurologic Deficits
Simonetti et al. Reprint of “Multimodal adaptive interfaces for 3D robot-mediated upper limb neuro-rehabilitation: An overview of bio-cooperative systems”
Zhao et al. Minimizing errors in the nursing profession with technology-enhanced education and training
Passmore et al. Older adults demonstrate reduced performance in a Fitts’ task involving cervical spine movement
Farook et al. Impact of virtual reality training in rehabilitation of stroke patients: a cross sectional review
Crocher et al. Direct versus indirect visual feedback: the effect of technology in neurorehabilitation
Ferche et al. Deep understanding of augmented feedback and associated cortical activations, for efficient virtual reality based neuromotor rehabilitation
Lupu et al. Neuromotor recovery based on BCI, FES, virtual reality and augmented feedback for upper limbs
Zollo et al. Multimodal interfaces to improve therapeutic outcomes in robot-assisted rehabilitation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170704

RJ01 Rejection of invention patent application after publication