CN104700403B - 一种基于kinect的手势控制液压支架的虚拟示教方法 - Google Patents

一种基于kinect的手势控制液压支架的虚拟示教方法 Download PDF

Info

Publication number
CN104700403B
CN104700403B CN201510071854.3A CN201510071854A CN104700403B CN 104700403 B CN104700403 B CN 104700403B CN 201510071854 A CN201510071854 A CN 201510071854A CN 104700403 B CN104700403 B CN 104700403B
Authority
CN
China
Prior art keywords
module
joint
kinect
hydraulic support
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510071854.3A
Other languages
English (en)
Other versions
CN104700403A (zh
Inventor
刘新华
刘晶晶
王忠宾
谭超
彭俊泉
任衍坤
张秋香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN201510071854.3A priority Critical patent/CN104700403B/zh
Publication of CN104700403A publication Critical patent/CN104700403A/zh
Application granted granted Critical
Publication of CN104700403B publication Critical patent/CN104700403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于kinect的手势控制液压支架的虚拟示教***及方法,包括kinect模块、景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块,kinect模块依次与景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块连接。只需操作人员做出特定手势,就可以通过显示器模块观察虚拟液压支架做出相应的动作,便于人们更好的理解液压支架的工作过程。

Description

一种基于 kinect 的手势控制液压支架的虚拟示教方法
技术领域
本发明涉及一种基于kinect的手势控制液压支架的虚拟示教***及方法,属于自动控制技术领域。
背景技术
人机交互技术是指通过计算机的输入和输出设备,实现人与计算机的交流。常见的人机交互方式是采用对人手的位置和位姿进行实时跟踪的***,这类设备有电磁跟踪设备、惯性传感器与数据手套等,这些属于接触式的传感器,需要穿戴额外的设备而使得交互过程不够自然。而微软公司的体感交互设备kinect是非接触式的传感器,可以通过操作者的手部动作来控制电脑,不需要人身上穿戴额外的设备,使得人们能以自然的方式与计算机交互。
液压支架是用来控制采煤工作面矿山压力的结构物,作为综合机械化采煤的必备设备,它为综采工作面采煤机、刮板输送机以及工作人员提供安全的工作空间。但是人们很难形象的学习了解液压支架的工作过程。为了提高人们对液压支架工作过程的交互体验感,需要设计一种人-液压支架虚拟三维环境的交互控制***,使人们更好的理解液压支架的工作过程。
发明内容
针对上述现有技术存在的问题,本发明提供一种基于kinect的手势控制液压支架的虚拟示教***及方法,只需操作人员做出特定手势,就可以通过显示器模块观察虚拟液压支架做出相应的动作,便于人们更好的理解液压支架的工作过程。
为了实现上述目的,本发明采用的技术方案是:该种基于kinect的手势控制液压支架的虚拟示教***,包括kinect模块、景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块,kinect模块依次与景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块连接。
该种基于kinect的手势控制液压支架的虚拟示教方法,其具体步骤是:
(1)预先设定八个不同的标准手势,并将八个手势存储到控制模块中;
(2)控制模块将八个标准手势分别对应液压支架的降柱、移架、升柱、推溜、降护帮板、升护帮板、收前梁和升前梁八个动作的控制信号;
(3)初始化kinect模块,设定摄像机仰角,操作人员站立在距离摄像头1.2米到3.5米范围之间,做出设定的八个标准手势之一;
(4)kinect模块检测操作人员的动作,并从颜色流、深度流和骨架流中获取人体骨骼信息数据帧;
(5)景深数据获取模块分析处理kinect模块传来的人体骨骼信息数据帧,获得图像景深数据,提取出人体骨骼信息,通过建立人体手臂关节的3D坐标系,得到人体手臂关节节点坐标,以识别人体不同的部位;
(6)关节点信息处理模块通过所得到的人体手臂关节的3D坐标,计算得出人体肩关节三个自由度方向上的转动角度,肘关节两个自由度方向上的转动角度;根据人体肩关节和肘关节转动角度信息,识别出人体手臂骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来进行数据处理;
(7)手势特征匹配模块将上述的各个不同的关节角度信息与控制模块中存储的八个标准手势的各个关节角度信息进行特征匹配;若匹配未成功,则返回步骤(3),若匹配成功,则手势特征匹配模块将数据传递给控制模块;
(8)控制模块接收到手势特征匹配模块传来的匹配成功的数据,分析处理后,发出与该手势相对应的液压支架的动作控制信号,进而控制三维虚拟液压支架动作,并通过显示器模块显示。
与现有技术相比,本发明通过kinect模块进行手势信息的采集,利用可提取骨骼点的三维信息追踪手臂各关节的位置,通过辨认特定的手势,控制虚拟液压支架做出相应的动作,便于人们更好的理解液压支架的工作过程。
附图说明
图1是本发明的电原理框图;
图2是本发明中做出手势时人体手臂运动示意图;
图3是本发明中手臂的D-H坐标系;
图4是本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1和图2所示,该种基于kinect的手势控制液压支架的虚拟示教***,包括kinect模块、景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块,kinect模块依次与景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块连接。
该种基于kinect的手势控制液压支架的虚拟示教方法,其具体步骤是:
(1)预先设定八个不同的标准手势,并将八个手势存储到控制模块中;
(2)控制模块将八个标准手势分别对应液压支架的降柱、移架、升柱、推溜、降护帮板、升护帮板、收前梁和升前梁八个动作的控制信号;
(3)初始化kinect模块,设定摄像机仰角,操作人员站立在距离摄像头1.2米到3.5米范围之间,做出设定的八个标准手势之一;
(4)kinect模块检测操作人员的动作,并从颜色流、深度流和骨架流中获取人体骨骼信息数据帧;
(5)景深数据获取模块分析处理kinect模块传来的人体骨骼信息数据帧,获得图像景深数据,提取出人体骨骼信息,通过建立人体手臂关节的3D坐标系,得到人体手臂关节节点坐标,以识别人体不同的部位;
(6)关节点信息处理模块通过所得到的人体手臂关节的3D坐标,计算得出人体肩关节三个自由度方向上的转动角度,肘关节两个自由度方向上的转动角度;根据人体肩关节和肘关节转动角度信息,识别出人体手臂骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来进行数据处理,具体的过程为:
如图3所示,将人体右臂肩关节的运动分为屈伸运动,展收运动,旋转运动,分别对应角度α1、β1、γ1。人体肘关节运动为屈伸运动,对应角度为δ1。在人体双肩关节中间点处建立基准坐标系o0-x0y0z0,设人体右臂肩关节骨骼节点的3D坐标为(x1,y1,z1),右臂肘关节骨骼节点的3D坐标为(x2,y2,z2),右臂腕关节骨骼节点的3D坐标为(x3,y3,z3);
右臂肩宽 L 0 = x 1 2 + y 1 2 + z 1 2
右臂大臂长 L 1 = ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2 + ( z 2 - z 1 ) 2
右臂小臂长 L 2 = ( x 3 - x 2 ) 2 + ( y 3 - y 2 ) 2 + ( z 3 - z 2 ) 2
对于肩关节屈伸动作,-40°<α1<90°,
α 1 = arctan ( y 2 - y 1 x 2 - x 1 )
对于肩展收动作,-90°<β1<20°,
β 1 = arctan ( z 2 - z 1 x 2 - x 1 )
对于肘关节屈伸动作,0°<δ1<130°,
δ 1 = arccos [ ( x 1 - x 2 ) × ( x 2 - x 3 ) + ( y 1 - y 2 ) × ( y 2 - y 3 ) + ( z 1 - z 2 ) × ( z 3 - z 2 ) ] L 1 × L 2
对于肩关节旋转运动,并不能直接由已知坐标求出。这里利用建立人体关节D-H坐标系,根据坐标变换原理得出腕关节节点的坐标表达式,然后根据已知的腕关节节点坐标反推出γ1
根据表1中的D-H参数,写出各个关节对应的仿射变换矩阵。
A 1 = 1 0 0 0 0 1 0 0 0 0 1 L 0 0 0 0 1
A 2 = cos θ 2 0 sin θ 2 0 sin θ 2 0 - cos θ 2 0 0 1 0 0 0 0 0 1
A 3 = cos θ 3 0 sin θ 3 0 sin θ 3 0 - cos θ 3 0 0 1 0 0 0 0 0 1
A 4 = cos θ 4 0 sin θ 4 0 sin θ 4 0 - cos θ 4 0 0 1 0 L 1 0 0 0 1
A 5 = cos θ 5 - sin θ 5 0 L 2 cos θ 5 sin θ 5 cos θ 5 0 L 2 sin θ 5 0 0 1 0 0 0 0 1
得到总的变换矩阵为
T = A 1 A 2 A 3 A 4 A 5 = n x o x a x p x n y o y a y p y n z o z a z p z 0 0 0 1
其中
x3=px=L1cosθ2sinθ3+L2cosθ5(sinθ2sinθ4+cosθ2cosθ3cosθ4)+L2cosθ2sinθ3sinθ5
y3=px=L1sinθ2sinθ3-L2cosθ5(cosθ2sinθ4+cosθ3cosθ4sinθ2)+L2sinθ2sinθ3sinθ5
z3=L0-L1cosθ3-L2cosθ3sinθ5+L2cosθ4cosθ5sinθ3
其中
θ 2 = α 1 - π / 2 θ 3 = β 1 - π / 2 θ 4 = γ 1 - π / 2 θ 5 = δ 1
根据已知的角度和长度,代入上述公式中,可求出肩关节的旋转运动角度γ1(-90°<γ1<45°);
(7)手势特征匹配模块将上述的各个不同的关节角度信息与控制模块中存储的八个标准手势的各个关节角度信息进行特征匹配;若匹配未成功,则返回步骤(3),若匹配成功且持续5秒,则手势特征匹配模块将数据传递给控制模块;
(8)控制模块接收到手势特征匹配模块传来的匹配成功的数据,分析处理后,发出与该手势相对应的液压支架的动作控制信号,进而控制三维虚拟液压支架动作,并通过显示器模块显示;表2是每个不同的手势特征对应的液压直接动作。
表1:
i α a d θ
1 0 0 L0 0
2 90 0 0 θ2
3 90 0 0 θ3
4 90 0 L1 θ4
5 0 L2 0 θ5
表2:
α1 β1 γ1 δ1 动作
1 70 -70 0 90 降柱
2 30 0 -90 90 移架
3 0 -90 0 90 升柱
4 0 -90 -90 90 推溜
5 0 -90 45 0 降护帮板
6 90 0 45 90 升护帮板
7 90 0 45 0 收前梁
8 90 -90 0 0 升前梁

Claims (1)

1.一种基于kinect的手势控制液压支架的虚拟示教方法,其特征在于,其具体步骤是:
(1)预先设定八个不同的标准手势,并将八个手势存储到控制模块中;
(2)控制模块将八个标准手势分别对应液压支架的降柱、移架、升柱、推溜、降护帮板、升护帮板、收前梁和升前梁八个动作的控制信号;
(3)初始化kinect模块,设定摄像机仰角,操作人员站立在距离摄像头1.2米到3.5米范围之间,做出设定的八个标准手势之一;
(4)kinect模块检测操作人员的动作,并从颜色流、深度流和骨架流中获取人体骨骼信息数据帧;
(5)景深数据获取模块分析处理kinect模块传来的人体骨骼信息数据帧,获得图像景深数据,提取出人体骨骼信息,通过建立人体手臂关节的3D坐标系,得到人体手臂关节节点坐标,以识别人体不同的部位;
(6)关节点信息处理模块通过所得到的人体手臂关节的3D坐标,计算得出人体肩关节三个自由度方向上的转动角度,肘关节两个自由度方向上的转动角度;根据人体肩关节和肘关节转动角度信息,识别出人体手臂骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来进行数据处理;
(7)手势特征匹配模块将上述的各个不同的关节角度信息与控制模块中存储的八个标准手势的各个关节角度信息进行特征匹配;若匹配未成功,则返回步骤(3),若匹配成功,则手势特征匹配模块将数据传递给控制模块;
(8)控制模块接收到手势特征匹配模块传来的匹配成功的数据,分析处理后,发出与该手势相对应的液压支架的动作控制信号,进而控制三维虚拟液压支架动作,并通过显示器模块显示。
CN201510071854.3A 2015-02-11 2015-02-11 一种基于kinect的手势控制液压支架的虚拟示教方法 Active CN104700403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510071854.3A CN104700403B (zh) 2015-02-11 2015-02-11 一种基于kinect的手势控制液压支架的虚拟示教方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510071854.3A CN104700403B (zh) 2015-02-11 2015-02-11 一种基于kinect的手势控制液压支架的虚拟示教方法

Publications (2)

Publication Number Publication Date
CN104700403A CN104700403A (zh) 2015-06-10
CN104700403B true CN104700403B (zh) 2016-11-09

Family

ID=53347485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510071854.3A Active CN104700403B (zh) 2015-02-11 2015-02-11 一种基于kinect的手势控制液压支架的虚拟示教方法

Country Status (1)

Country Link
CN (1) CN104700403B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105500370B (zh) * 2015-12-21 2018-11-02 华中科技大学 一种基于体感技术的机器人离线示教编程***及方法
CN108472810A (zh) * 2016-01-29 2018-08-31 三菱电机株式会社 机器人示教装置和机器人控制程序生成方法
EP3411195B1 (en) * 2016-02-05 2022-08-31 ABB Schweiz AG Controlling an industrial robot using interactive commands
JP6585665B2 (ja) * 2017-06-29 2019-10-02 ファナック株式会社 仮想オブジェクト表示システム
JP6781201B2 (ja) * 2018-06-05 2020-11-04 ファナック株式会社 仮想オブジェクト表示システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103170973A (zh) * 2013-03-28 2013-06-26 上海理工大学 基于Kinect摄像机的人机协作装置及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102727362B (zh) * 2012-07-20 2014-09-24 上海海事大学 基于体感外设手臂运动追踪的康复训练***及其训练方法
CN104108097A (zh) * 2014-06-25 2014-10-22 陕西高华知本化工科技有限公司 基于手势控制的上下料机械手***

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103170973A (zh) * 2013-03-28 2013-06-26 上海理工大学 基于Kinect摄像机的人机协作装置及方法

Also Published As

Publication number Publication date
CN104700403A (zh) 2015-06-10

Similar Documents

Publication Publication Date Title
CN104700403B (zh) 一种基于kinect的手势控制液压支架的虚拟示教方法
CN103135756B (zh) 生成控制指令的方法和***
CN103472916A (zh) 一种基于人体手势识别的人机交互方法
CN107688391A (zh) 一种基于单目视觉的手势识别方法和装置
CN102508578B (zh) 投影定位装置及方法、交互***和交互方法
CN104570731A (zh) 一种基于Kinect的无标定人机交互控制***及方法
CN104423569A (zh) 指向位置侦测装置、方法及计算机可读取纪录媒体
CN103092437B (zh) 一种基于图像处理技术的便捷式触控交互***
US20130202212A1 (en) Information processing apparatus, information processing method, and computer program
CN104808788A (zh) 一种非接触式手势操控用户界面的方法
CN205068294U (zh) 机器人人机交互装置
CN104656893A (zh) 一种信息物理空间的远程交互式操控***及方法
CN100478860C (zh) 一种电子平面显示定位***及定位方法
CN103824072A (zh) 对手写字符的字体结构进行检测的方法及装置
CN103823548A (zh) 电子设备、穿戴式设备、控制***和方法
Jaemin et al. A robust gesture recognition based on depth data
CN202188830U (zh) 单相机多测点动位移测量装置
CN102841679A (zh) 一种非接触式人机互动方法与装置
CN102479386A (zh) 基于单目视频的人体上半身三维运动跟踪方法
Hou et al. Four-point trapezoidal calibration algorithm for human-computer interaction system based on 3D sensor
CN118098033A (zh) 基于混合现实技术的教学***及方法
CN105373329A (zh) 显示器与展台的交互方法及***
CN203070205U (zh) 一种基于手势识别的输入设备
CN203786665U (zh) 非接触式屏幕互动传媒装置
CN202749066U (zh) 一种非接触式物展交互***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant