CN106826838B - 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法 - Google Patents

一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法 Download PDF

Info

Publication number
CN106826838B
CN106826838B CN201710213574.0A CN201710213574A CN106826838B CN 106826838 B CN106826838 B CN 106826838B CN 201710213574 A CN201710213574 A CN 201710213574A CN 106826838 B CN106826838 B CN 106826838B
Authority
CN
China
Prior art keywords
control
mechanical arm
instruction
information
limb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710213574.0A
Other languages
English (en)
Other versions
CN106826838A (zh
Inventor
梅雪松
赵万秋
蔡航航
张朝辉
边旭
李智
许瑨
霍权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201710213574.0A priority Critical patent/CN106826838B/zh
Publication of CN106826838A publication Critical patent/CN106826838A/zh
Application granted granted Critical
Publication of CN106826838B publication Critical patent/CN106826838B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法,通过搭建多自由度的仿生机械臂和机械手,以中央处理器作为控制板,将其分别与驱动板、Kinect视觉深度传感器相连接;Kinect视觉深度传感器包括RGB摄像机、空间深度摄像机和语音检测电路;Kinect视觉深度传感器识别辨别目标人手臂的二维肢体轮廓,获取肢体轮廓的二维信息;控制板将接收的信息解算,获得仿生机械臂的位置、角度、速度信息,转化成控制指令;驱动板根据控制指令驱动电机和/或舵机动作,各个关节配合完成跟随目标人手臂的动作,完成肢体模仿控制。本发明可以根据kinect传感器获得的人体动作数据及语音指令,通过解算完成一系列对应的空间位置变换,实现包括肢体模仿控制、语音控制以及实时人机动作交互。

Description

一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法
技术领域
本发明属于机器人技术领域,涉及一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法。
背景技术
机器人可以分为专业领域服务机器人和个人/家庭服务机器人,机器人的应用范围很广,主要从事维护保养、修理、运输、清洗、保安、救援、监护等工作。机械手臂是机械人技术领域中得到最广泛实际应用的自动化机械装置,在工业制造、医学治疗、娱乐服务、军事、半导体制造以及太空探索等领域都能见到它的身影。仿生机械臂应用范围广泛,常常与机器人配合使用,是机器人家族中的一个重要组成部分。
对于机器人来说,仿生机械臂很重要,它通过相应的动作可以完成不同任务,更好地为人服务,或实现交互娱乐等功能。多自由度的机械臂更为灵活,同时配合灵巧仿生手,运用多传感器技术,能够更好地为人服务,满足各种机器人灵活的要求。
发明内容
本发明解决的问题在于提供一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法,实现仿生机械臂的肢体模仿控制、语音控制以及实时人机动作交互及协作。
本发明是通过以下技术方案来实现:
一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法,包括以下操作:
1)搭建多自由度的仿生机械臂和机械手,其中的关节由电机驱动,手指由舵机拉线牵引,电机和舵机分别由驱动板提供动力源;
2)以中央处理器作为控制板,将其分别与驱动板、Kinect视觉深度传感器相连接;Kinect视觉深度传感器包括RGB摄像机、空间深度摄像机和语音检测电路;
3)Kinect视觉深度传感器识别辨别目标人手臂的二维肢体轮廓,获取肢体轮廓的二维信息;利用空间深度摄像机捕获的空间深度信息,将肢体轮廓的二维信息扩展为三维空间方位信息,然后将三维空间方位信息作为肢体模仿的输入信息发送给控制板;
4)控制板将接收的信息解算,获得仿生机械臂的位置、角度、速度信息,转化成控制指令,发送给驱动板;
5)驱动板根据控制指令驱动电机和/或舵机动作,各个关节配合完成跟随目标人手臂的动作,完成肢体模仿控制。
所述的Kinect视觉深度传感器的语音检测电路还接收目标声波信号,并将其转化为二进制量化数据发送给控制板;
控制板将接收的信息解算后识别目标声波信号的语音指令内容,再根据语音指令内容调取相应的控制指令传输给驱动板,控制指令为预置的能够完成指定动作的机械臂控制代码;
驱动板根据控制指令驱动电机和/或舵机动作,各个关节配合完成语音指令内容,完成语音控制。
将肢体模仿控制和语音控制相结合,完成实时人机动作交互:
Kinect视觉深度传感器捕获交互目标的肢体动作的同时,还接收交互目标的语音指令,将捕获的信号发送给控制板;
控制板将交互目标肢体动作和语音指令结合起来,控制板优先生成肢体模仿控制指令,在完成模仿控制指令的同时响应语音指令;
驱动板根据指令内容与人实时协作或人机实时交互。
所述的Kinect视觉深度传感器通过对目标即时采集,对人肢体动作连续采集识别,获得的肢体三维空间方位信息;
控制板将肢体关节和骨骼分别映射为三维空间中的节点及连杆,关节位置对应节点坐标,骨骼长度对应连杆长度;然后解算获得相应的目标肢体动作的方位、角度、速度信息;解算出包括对应仿生机械臂各个关节自由度在内的控制指令数据,将控制指令数据传输给控制板,实现仿生机械臂对目标肢体动作的模仿。
所述的控制板收到的信息为视觉深度传感器采集的RGB彩色图像和空间深度信息,其中Kinect作为视觉深度传感器,只负责图像采集和空间深度信息采集,不参与解算过程;
控制板接收传输的信息后进行实时解算:
21)由RGB图像信息进行灰度梯度分析,识别物体轮廓;
22)对物体轮廓进行分类,识别出属于人体外貌的轮廓特征;
23)根据人体轮廓图像,确定人体肢体骨骼走向及关节位置,转化为连杆和节点坐标,此时获得的是二位平面上的数据;
24)控制器处理深度传感器信息,由深度传感器的空间深度数据,确定步骤23)中节点坐标与传感器的距离,在步骤23)中解算的二维坐标中加入第三个维度作为深度维度,形成三维空间中笛卡尔坐标系下的三坐标数据;
25)通过空间几何方法,获得每一节点处连杆之间的夹角,即实际对应的人肢体关节弯曲程度;
26)将夹角数据经过映射,变换为机械臂各个关节的角度数据;
27)步骤21-26实时进行,所形成的关节的角度数据连续变化,根据连续变化的数据计算各个电机/舵机所需的运行状态,形成动作指令,即静止在指定位置或以指令速度运动;
28)图像和深度数据解算过程中,如接收到交互对象有效的语音指令,则在此步骤将语音指令的解算结果加入动作指令;
29)将机械臂各个关节的动作指令分别发送给相对应关节的驱动器,由驱动器驱动执行电机/舵机运动。
所述的驱动板根据电机或舵机额定电压和电流提供动力,根据接收控制板的控制信号,传输相应的电压给电机或舵机,使电机和舵机到达指定的位置或按照指定速度移动,完成机械臂的动作。
所述的控制板接收Kinect麦克风采集的声音数据,语音指令解算分为语音识别和指令转化,将麦克风采集到的声音数据识别为具体的语句和文字,供指令转化使用;
所述的指令转化为:首先判断语音识别出的语句关键词是否有效,有效的判定为与指令库中的数据匹配,匹配到目标则为有效;
指令库中的数据特征值由用户对数据库进行编写,包含但不仅限于:停止、启动、跟随、避让、X关节移动到Y处;
获取到的有效语句关键词转化为动作指令采用数据库查询的方式,由预置在数据库中的对应动作决定动作指令输出。
与现有技术相比,本发明具有以下有益的技术效果:
本发明提供的基于Kinect视觉深度传感器的交互仿生机械臂控制方法,可以根据kinect传感器获得的人体动作数据及语音指令,通过解算完成一系列对应的空间位置变换,实现对机械臂的控制。控制方式包括肢体模仿控制、语音控制以及实时人机动作交互。
本发明利用传感器获得的肢体三维空间方位信息,将肢体关节和骨骼分别映射为三维空间中的节点及连杆,关节位置对应节点坐标,骨骼长度对应连杆长度。算获得相应的人肢体动作的方位、角度、速度等信息;再通过对应仿生机械臂各个关节自由度的指令数据,将获得的数据传输给机械臂的控制电路,实现机械臂对人肢体动作的模仿。
本发明在语音控制中,利用语音检测电路将声波信号转化为二进制量化数据,通过解算识别语音指令内容,如“你好”“谢谢”“再见”等,将这些语音信息转换为特定的控制指令传输给控制电路,实现机械臂的挥手、招手、握手等简单动作。
在实时人机动作交互控制住中,是在以上两种控制方式的基础上,将与机械臂互动对象的肢体动作和语音指令结合起来,根据指令内容与人实时协作或人机实时交互,在完成指令任务的同时响应人的语音及肢体信息,如人机传递物品,避免碰撞伤害人类等。
附图说明
图1为仿生机械臂示意图。
图2为本发明的连接示意图。
图3为本发明的工作流程图。
具体实施方式
下面结合具体的实施例对本发明做进一步的详细说明,所述是对本发明的解释而不是限定。
参见图1~图3,一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法,包括以下操作:
1)搭建多自由度的仿生机械臂和机械手,其中的关节由电机驱动,手指由舵机拉线牵引,电机和舵机分别由驱动板提供动力源;
2)以中央处理器作为控制板,将其分别与驱动板、Kinect视觉深度传感器相连接;Kinect视觉深度传感器包括RGB摄像机、空间深度摄像机和语音检测电路;
3)Kinect视觉深度传感器识别辨别目标人手臂的二维肢体轮廓,获取肢体轮廓的二维信息;利用空间深度摄像机捕获的空间深度信息,将肢体轮廓的二维信息扩展为三维空间方位信息,然后将三维空间方位信息作为肢体模仿的输入信息发送给控制板;
4)控制板将接收的信息解算,获得仿生机械臂的位置、角度、速度信息,转化成控制指令,发送给驱动板;
5)驱动板根据控制指令驱动电机和/或舵机动作,各个关节配合完成跟随目标人手臂的动作,完成肢体模仿控制。
所述的Kinect视觉深度传感器的语音检测电路还接收目标声波信号,并将其转化为二进制量化数据发送给控制板;
控制板将接收的信息解算后识别目标声波信号的语音指令内容,再根据语音指令内容调取相应的控制指令传输给驱动板,控制指令为预置的能够完成指定动作的机械臂控制代码;
驱动板根据控制指令驱动电机和/或舵机动作,各个关节配合完成语音指令内容,完成语音控制。
将肢体模仿控制和语音控制相结合,完成实时人机动作交互:
Kinect视觉深度传感器捕获交互目标的肢体动作的同时,还接收交互目标的语音指令,将捕获的信号发送给控制板;
控制板将交互目标肢体动作和语音指令结合起来,控制板优先生成肢体模仿控制指令,在完成模仿控制指令的同时响应语音指令;
驱动板根据指令内容与人实时协作或人机实时交互。
下面对各部分进一步详细的说明。
Kinect传感器包括RGB摄像机、空间深度摄像机及语音检测电路。其中,RGB摄像机识别辨别人的二维肢体轮廓,同时利用空间深度信息可将肢体轮廓的二维信息扩展为三维空间方位信息。然后将三维空间数据作为肢体模仿控制、实时人机动作交互的输入信息;利用语音检测电路将声波信号转化为二进制量化数据,通过解算识别语音指令内容。Kinect作为视觉深度传感器,只负责图像采集和空间深度信息采集,不参与解算过程,其数据采集过程可由其他厂家的视觉深度传感器代替。
控制器有主控板和驱动板组成。主控板接收Kinect传输的RGB图像信息、空间深度信息以及语音数据,完成数据解算过程,可以根据获得人手臂动作的位置、角度、速度等信息,输出机械臂关节电机的驱动信号,完成机械手臂的动作,也可以接收语音信息的特定控制指令,输出机械臂关节电机的动作,完成简单的人机交互动作。
驱动板根据电机或舵机额定电压和电流提供动力,根据接收控制板的控制信号,传输相应的电压给电机或舵机,使电机和舵机到达指定的位置或按照指定速度移动,完成机械臂的动作。
本发明使用的机械臂为仿生机械臂,模仿人体上肢,由肩关节、大臂、肘关节、小臂、腕关节和灵巧手组成,每个关节都由电机驱动,灵巧手手指由舵机拉线牵引。
在肢体模仿控制中,使用传感器的即时采集功能对人肢体动作连续采集识别,利用传感器获得的肢体三维空间方位信息,将肢体关节和骨骼分别映射为三维空间中的节点及连杆,关节位置对应节点坐标,骨骼长度对应连杆长度。之后中央处理器解算获得相应的人肢体动作的方位、角度、速度等信息。然后,进一步解算出对应仿生机械臂各个关节自由度的指令数据,将获得的数据传输给机械臂的控制电路,实现机械臂对人肢体动作的模仿。
控制板收到的信息为视觉深度传感器采集的RGB彩色图像和空间深度信息,其中Kinect作为视觉深度传感器,只负责图像采集和空间深度信息采集,不参与解算过程;,其数据采集过程可由其他厂家的视觉深度传感器代替。
控制板接收传输的信息后进行实时解算:
21)由RGB图像信息进行灰度梯度分析,识别物体轮廓;
22)对物体轮廓进行分类,识别出属于人体外貌的轮廓特征;
23)根据人体轮廓图像,确定人体肢体骨骼走向及关节位置,转化为连杆和节点坐标,此时获得的是二位平面上的数据;
24)控制器处理深度传感器信息,由深度传感器的空间深度数据,确定步骤23)中节点坐标与传感器的距离,在步骤23)中解算的二维坐标中加入第三个维度作为深度维度,形成三维空间中笛卡尔坐标系下的三坐标数据;
25)通过空间几何方法,获得每一节点处连杆之间的夹角,即实际对应的人肢体关节弯曲程度;
26)将夹角数据经过映射,变换为机械臂各个关节的角度数据;
27)步骤21-26实时进行,所形成的关节的角度数据连续变化,根据连续变化的数据计算各个电机/舵机所需的运行状态,形成动作指令,即静止在指定位置或以指令速度运动;
28)图像和深度数据解算过程中,如接收到交互对象有效的语音指令,则在此步骤将语音指令的解算结果加入动作指令;
29)将机械臂各个关节的动作指令分别发送给相对应关节的驱动器,由驱动器驱动执行电机/舵机运动。
在语音控制中,利用语音检测电路将声波信号转化为二进制量化数据,通过解算识别语音指令内容,如“你好”“谢谢”“再见”等,将这些语音信息转换为特定的控制指令传输给控制电路,实现机械臂的挥手、招手、握手等简单动作,其控制指令为预置的能够完成指定动作的机械臂控制代码。
控制器接收Kinect麦克风采集的声音数据。其中Kinect本身包含麦克风,在这里只用作语音采集,可以由其他厂家同类型麦克风替代。解算过程由控制器完成。语音指令解算分为语音识别和指令转化。其中语音识别技术较为成熟且开源,这里直接使用,将麦克风采集到的声音数据识别为具体的语句和文字,供指令转化使用。
所述的控制板接收Kinect麦克风采集的声音数据,语音指令解算分为语音识别和指令转化,将麦克风采集到的声音数据识别为具体的语句和文字,供指令转化使用;
所述的指令转化为:首先判断语音识别出的语句关键词是否有效,有效的判定为与指令库中的数据匹配,匹配到目标则为有效;
指令库中的数据特征值由用户对数据库进行编写,包含但不仅限于:停止、启动、跟随、避让、X关节移动到Y处;
获取到的有效语句关键词转化为动作指令采用数据库查询的方式,由预置在数据库中的对应动作决定动作指令输出。
在实时人机动作交互控制住中,是在以上两种控制方式的基础上,将与机械臂互动对象的肢体动作和语音指令结合起来,根据指令内容与人实时协作或人机实时交互,在完成指令任务的同时响应人的语音及肢体信息,如人机传递物品,避免碰撞伤害人类等。
下面给出具体的实施例。
步骤一:搭建多自由度的机械臂与机械手,如图1、图2所示;
步骤二:用中央处理器作为控制板与驱动板连接,开发机械手的控制程序。
步骤三:控制板与kinect传感器相连,使用体感程序完成人体动作捕捉,将人上肢姿态通过算法还原成手臂各个关节运动角度和角速度等信息,转化成机械臂控制指令,通过通信传输给控制板。
步骤四:控制板收到机械臂控制指令以后,解码转换为机械臂的每个关节的运动信息,控制各个关节配合完成跟随人手臂的动作或者完成人机交互。
以上给出的实施例是实现本发明较优的例子,本发明不限于上述实施例。本领域的技术人员根据本发明技术方案的技术特征所做出的任何非本质的添加、替换,均属于本发明的保护范围。

Claims (5)

1.一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法,其特征在于,包括以下操作:
1)搭建多自由度的仿生机械臂和机械手,其中的关节由电机驱动,手指由舵机拉线牵引,电机和舵机分别由驱动板提供动力源;
2)以中央处理器作为控制板,将其分别与驱动板、Kinect视觉深度传感器相连接;Kinect视觉深度传感器包括RGB摄像机、空间深度摄像机和语音检测电路;
3)Kinect视觉深度传感器识别辨别目标人手臂的二维肢体轮廓,获取肢体轮廓的二维信息;利用空间深度摄像机捕获的空间深度信息,将肢体轮廓的二维信息扩展为三维空间方位信息,然后将三维空间方位信息作为肢体模仿的输入信息发送给控制板;
4)控制板将接收的信息解算,获得仿生机械臂的位置、角度、速度信息,转化成控制指令,发送给驱动板;
5)驱动板根据控制指令驱动电机和/或舵机动作,各个关节配合完成跟随目标人手臂的动作,完成肢体模仿控制;
所述的驱动板根据电机或舵机额定电压和电流提供动力,根据接收控制板的控制信号,传输相应的电压给电机或舵机,使电机和舵机到达指定的位置或按照指定速度移动,完成机械臂的动作。
所述的控制板接收Kinect麦克风采集的声音数据,语音指令解算分为语音识别和指令转化,将麦克风采集到的声音数据识别为具体的语句和文字,供指令转化使用;
所述的指令转化为:首先判断语音识别出的语句关键词是否有效,有效的判定为与指令库中的数据匹配,匹配到目标则为有效;
指令库中的数据特征值由用户对数据库进行编写,包含但不仅限于:停止、启动、跟随、避让、X关节移动到Y处;
获取到的有效语句关键词转化为动作指令采用数据库查询的方式,由预置在数据库中的对应动作决定动作指令输出。
2.如权利要求1所述的基于Kinect视觉深度传感器的交互仿生机械臂控制方法,其特征在于,所述的Kinect视觉深度传感器的语音检测电路还接收目标声波信号,并将其转化为二进制量化数据发送给控制板;
控制板将接收的信息解算后识别目标声波信号的语音指令内容,再根据语音指令内容调取相应的控制指令传输给驱动板,控制指令为预置的能够完成指定动作的机械臂控制代码;
驱动板根据控制指令驱动电机和/或舵机动作,各个关节配合完成语音指令内容,完成语音控制。
3.如权利要求2所述的基于Kinect视觉深度传感器的交互仿生机械臂控制方法,其特征在于,将肢体模仿控制和语音控制相结合,完成实时人机动作交互:
Kinect视觉深度传感器捕获交互目标的肢体动作的同时,还接收交互目标的语音指令,将捕获的信号发送给控制板;
控制板将交互目标肢体动作和语音指令结合起来,控制板优先生成肢体模仿控制指令,在完成模仿控制指令的同时响应语音指令;
驱动板根据指令内容与人实时协作或人机实时交互。
4.如权利要求1所述的基于Kinect视觉深度传感器的交互仿生机械臂控制方法,其特征在于,所述的Kinect视觉深度传感器通过对目标即时采集,对人肢体动作连续采集识别,获得的肢体三维空间方位信息;
控制板将肢体关节和骨骼分别映射为三维空间中的节点及连杆,关节位置对应节点坐标,骨骼长度对应连杆长度;然后解算获得相应的目标肢体动作的方位、角度、速度信息;解算出包括对应仿生机械臂各个关节自由度在内的控制指令数据,将控制指令数据传输给控制板,实现仿生机械臂对目标肢体动作的模仿。
5.如权利要求1或4所述的基于Kinect视觉深度传感器的交互仿生机械臂控制方法,其特征在于,控制板收到的信息为视觉深度传感器采集的RGB彩色图像和空间深度信息,其中Kinect作为视觉深度传感器,只负责图像采集和空间深度信息采集,不参与解算过程;
控制板接收传输的信息后进行实时解算:
21)由RGB图像信息进行灰度梯度分析,识别物体轮廓;
22)对物体轮廓进行分类,识别出属于人体外貌的轮廓特征;
23)根据人体轮廓图像,确定人体肢体骨骼走向及关节位置,转化为连杆和节点坐标,此时获得的是二位平面上的数据;
24)控制器处理深度传感器信息,由深度传感器的空间深度数据,确定步骤23)中节点坐标与传感器的距离,在步骤23)中解算的二维坐标中加入第三个维度作为深度维度,形成三维空间中笛卡尔坐标系下的三坐标数据;
25)通过空间几何方法,获得每一节点处连杆之间的夹角,即实际对应的人肢体关节弯曲程度;
26)将夹角数据经过映射,变换为机械臂各个关节的角度数据;
27)步骤21-26实时进行,所形成的关节的角度数据连续变化,根据连续变化的数据计算各个电机/舵机所需的运行状态,形成动作指令,即静止在指定位置或以指令速度运动;
28)图像和深度数据解算过程中,如接收到交互对象有效的语音指令,则在此步骤将语音指令的解算结果加入动作指令;
29)将机械臂各个关节的动作指令分别发送给相对应关节的驱动器,由驱动器驱动执行电机/舵机运动。
CN201710213574.0A 2017-04-01 2017-04-01 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法 Active CN106826838B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710213574.0A CN106826838B (zh) 2017-04-01 2017-04-01 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710213574.0A CN106826838B (zh) 2017-04-01 2017-04-01 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法

Publications (2)

Publication Number Publication Date
CN106826838A CN106826838A (zh) 2017-06-13
CN106826838B true CN106826838B (zh) 2019-12-31

Family

ID=59142262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710213574.0A Active CN106826838B (zh) 2017-04-01 2017-04-01 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法

Country Status (1)

Country Link
CN (1) CN106826838B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107351088B (zh) * 2017-08-31 2020-02-14 南京埃斯顿机器人工程有限公司 一种机器人外部运动路径控制方法
CN107643827A (zh) * 2017-09-04 2018-01-30 王怡科 一种具有压力反馈的体感追踪***及方法
CN107450376B (zh) * 2017-09-09 2019-06-21 北京工业大学 一种基于智能移动平台的服务机械臂抓取姿态角计算方法
CN108247633B (zh) * 2017-12-27 2021-09-03 珠海格力节能环保制冷技术研究中心有限公司 机器人的控制方法及***
CN108453742B (zh) * 2018-04-24 2021-06-08 南京理工大学 基于Kinect的机器人人机交互***及方法
CN108828996A (zh) * 2018-05-31 2018-11-16 四川文理学院 一种基于视觉信息的机械臂遥操作***及方法
CN109621331A (zh) * 2018-12-13 2019-04-16 深圳壹账通智能科技有限公司 辅助健身方法、装置及存储介质、服务器
CN110480634B (zh) * 2019-08-08 2020-10-02 北京科技大学 一种针对机械臂运动控制的手臂引导运动控制方法
CN110450145A (zh) * 2019-08-13 2019-11-15 广东工业大学 一种基于人体骨骼识别的仿生机械臂
CN110762362B (zh) * 2019-08-14 2024-01-05 广东工业大学 一种基于人体姿态控制的支架
CN110834331A (zh) * 2019-11-11 2020-02-25 路邦科技授权有限公司 一种基于视觉控制的仿生机器人动作控制方法
CN111113429B (zh) * 2019-12-31 2021-06-25 深圳市优必选科技股份有限公司 一种动作模仿方法、动作模仿装置及终端设备
CN111267083B (zh) * 2020-03-12 2022-01-04 北京科技大学 一种基于单双目摄像头结合的机械臂自主搬运***
CN111645080A (zh) * 2020-05-08 2020-09-11 覃立万 智能服务机器人手眼协作***及运行方法
CN111482967B (zh) * 2020-06-08 2023-05-16 河北工业大学 一种基于ros平台的智能检测与抓取方法
CN112276947B (zh) * 2020-10-21 2021-06-15 乐聚(深圳)机器人技术有限公司 一种机器人动作模仿方法、装置、设备及存储介质
CN112975964B (zh) * 2021-02-23 2022-04-01 青岛海科虚拟现实研究院 基于大数据的机器人自动控制方法、控制***、机器人
CN113070877B (zh) * 2021-03-24 2022-04-15 浙江大学 一种面向七轴机械臂视觉示教的可变姿态映射方法
CN113282109A (zh) * 2021-07-23 2021-08-20 季华实验室 无人飞行器与人协同作业***
CN114129392B (zh) * 2021-12-07 2023-07-28 山东大学 可调控末端指尖力的自适应冗余驱动外骨骼康复机器人
WO2023184535A1 (zh) * 2022-04-02 2023-10-05 京东方科技集团股份有限公司 语音交互***及方法、智能设备
CN114932555B (zh) * 2022-06-14 2024-01-05 如你所视(北京)科技有限公司 机械臂协同作业***及机械臂控制方法
CN117102562B (zh) * 2023-10-24 2023-12-22 常州法尔林精机有限公司 一种刨床加工自动化生产线机械手控制***及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102114631B (zh) * 2010-01-06 2013-10-30 深圳华强智能技术有限公司 仿真手
CN102727362B (zh) * 2012-07-20 2014-09-24 上海海事大学 基于体感外设手臂运动追踪的康复训练***及其训练方法
KR101438002B1 (ko) * 2013-02-28 2014-09-16 계명대학교 산학협력단 낙상 방지 장치
CN105701806B (zh) * 2016-01-11 2018-08-03 上海交通大学 基于深度图像的帕金森震颤运动特征检测方法及***
CN106125925B (zh) * 2016-06-20 2019-05-14 华南理工大学 基于手势和语音控制的智能抓捕方法
CN106426168A (zh) * 2016-10-19 2017-02-22 辽宁工程技术大学 一种仿生机械臂及其控制方法

Also Published As

Publication number Publication date
CN106826838A (zh) 2017-06-13

Similar Documents

Publication Publication Date Title
CN106826838B (zh) 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法
CN110480634B (zh) 一种针对机械臂运动控制的手臂引导运动控制方法
Mahmud et al. Interface for human machine interaction for assistant devices: A review
CN109571513B (zh) 一种沉浸式移动抓取服务机器人***
CN104440926A (zh) 一种基于Kinect的机械臂体感远程控制方法及***
CN115469576B (zh) 一种基于人-机械臂异构运动空间混合映射的遥操作***
CN108572586B (zh) 信息处理装置和信息处理***
Mao et al. Learning hand movements from markerless demonstrations for humanoid tasks
Chu et al. The helping hand: An assistive manipulation framework using augmented reality and tongue-drive interfaces
Lenz et al. The BERT2 infrastructure: An integrated system for the study of human-robot interaction
Cheng et al. Human-robot interaction method combining human pose estimation and motion intention recognition
Nguyen et al. Merging physical and social interaction for effective human-robot collaboration
Teke et al. Real-time and robust collaborative robot motion control with Microsoft Kinect® v2
CN116175582A (zh) 一种基于机器视觉的智能机械臂操控***及控制方法
Shaikh et al. Voice assisted and gesture controlled companion robot
Wakabayashi et al. Associative motion generation for humanoid robot reflecting human body movement
Sharan et al. Design of an easy upgradable cost efficient autonomous assistive robot ROSWITHA
Altayeb Hand gestures replicating robot arm based on MediaPipe
Goto et al. A method for driving humanoid robot based on human gesture
Boboc et al. Learning new skills by a humanoid robot through imitation
Jayasurya et al. Gesture controlled AI-robot using Kinect
Nguyen et al. Performance evaluation of an inverse kinematic based control system of a humanoid robot arm using MS Kinect
CN118123847B (zh) 一种人机协作的***、操作控制方法及装置
Li et al. Body activity interaction for a service robot
Pushpalatha et al. Gesture-based Control of a Bionic Arm–A Prototype Design

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant