CN104700403B - 一种基于kinect的手势控制液压支架的虚拟示教方法 - Google Patents
一种基于kinect的手势控制液压支架的虚拟示教方法 Download PDFInfo
- Publication number
- CN104700403B CN104700403B CN201510071854.3A CN201510071854A CN104700403B CN 104700403 B CN104700403 B CN 104700403B CN 201510071854 A CN201510071854 A CN 201510071854A CN 104700403 B CN104700403 B CN 104700403B
- Authority
- CN
- China
- Prior art keywords
- module
- joint
- kinect
- hydraulic support
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 10
- 230000009471 action Effects 0.000 claims description 15
- 210000000323 shoulder joint Anatomy 0.000 claims description 11
- 210000002310 elbow joint Anatomy 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000013011 mating Effects 0.000 claims description 3
- 240000007594 Oryza sativa Species 0.000 claims 1
- 235000007164 Oryza sativa Nutrition 0.000 claims 1
- 235000009566 rice Nutrition 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 abstract description 11
- 230000003993 interaction Effects 0.000 description 4
- 210000003797 carpal joint Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005065 mining Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000003245 coal Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于kinect的手势控制液压支架的虚拟示教***及方法,包括kinect模块、景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块,kinect模块依次与景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块连接。只需操作人员做出特定手势,就可以通过显示器模块观察虚拟液压支架做出相应的动作,便于人们更好的理解液压支架的工作过程。
Description
技术领域
本发明涉及一种基于kinect的手势控制液压支架的虚拟示教***及方法,属于自动控制技术领域。
背景技术
人机交互技术是指通过计算机的输入和输出设备,实现人与计算机的交流。常见的人机交互方式是采用对人手的位置和位姿进行实时跟踪的***,这类设备有电磁跟踪设备、惯性传感器与数据手套等,这些属于接触式的传感器,需要穿戴额外的设备而使得交互过程不够自然。而微软公司的体感交互设备kinect是非接触式的传感器,可以通过操作者的手部动作来控制电脑,不需要人身上穿戴额外的设备,使得人们能以自然的方式与计算机交互。
液压支架是用来控制采煤工作面矿山压力的结构物,作为综合机械化采煤的必备设备,它为综采工作面采煤机、刮板输送机以及工作人员提供安全的工作空间。但是人们很难形象的学习了解液压支架的工作过程。为了提高人们对液压支架工作过程的交互体验感,需要设计一种人-液压支架虚拟三维环境的交互控制***,使人们更好的理解液压支架的工作过程。
发明内容
针对上述现有技术存在的问题,本发明提供一种基于kinect的手势控制液压支架的虚拟示教***及方法,只需操作人员做出特定手势,就可以通过显示器模块观察虚拟液压支架做出相应的动作,便于人们更好的理解液压支架的工作过程。
为了实现上述目的,本发明采用的技术方案是:该种基于kinect的手势控制液压支架的虚拟示教***,包括kinect模块、景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块,kinect模块依次与景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块连接。
该种基于kinect的手势控制液压支架的虚拟示教方法,其具体步骤是:
(1)预先设定八个不同的标准手势,并将八个手势存储到控制模块中;
(2)控制模块将八个标准手势分别对应液压支架的降柱、移架、升柱、推溜、降护帮板、升护帮板、收前梁和升前梁八个动作的控制信号;
(3)初始化kinect模块,设定摄像机仰角,操作人员站立在距离摄像头1.2米到3.5米范围之间,做出设定的八个标准手势之一;
(4)kinect模块检测操作人员的动作,并从颜色流、深度流和骨架流中获取人体骨骼信息数据帧;
(5)景深数据获取模块分析处理kinect模块传来的人体骨骼信息数据帧,获得图像景深数据,提取出人体骨骼信息,通过建立人体手臂关节的3D坐标系,得到人体手臂关节节点坐标,以识别人体不同的部位;
(6)关节点信息处理模块通过所得到的人体手臂关节的3D坐标,计算得出人体肩关节三个自由度方向上的转动角度,肘关节两个自由度方向上的转动角度;根据人体肩关节和肘关节转动角度信息,识别出人体手臂骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来进行数据处理;
(7)手势特征匹配模块将上述的各个不同的关节角度信息与控制模块中存储的八个标准手势的各个关节角度信息进行特征匹配;若匹配未成功,则返回步骤(3),若匹配成功,则手势特征匹配模块将数据传递给控制模块;
(8)控制模块接收到手势特征匹配模块传来的匹配成功的数据,分析处理后,发出与该手势相对应的液压支架的动作控制信号,进而控制三维虚拟液压支架动作,并通过显示器模块显示。
与现有技术相比,本发明通过kinect模块进行手势信息的采集,利用可提取骨骼点的三维信息追踪手臂各关节的位置,通过辨认特定的手势,控制虚拟液压支架做出相应的动作,便于人们更好的理解液压支架的工作过程。
附图说明
图1是本发明的电原理框图;
图2是本发明中做出手势时人体手臂运动示意图;
图3是本发明中手臂的D-H坐标系;
图4是本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1和图2所示,该种基于kinect的手势控制液压支架的虚拟示教***,包括kinect模块、景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块,kinect模块依次与景深数据获取模块、关节点信息处理模块、手势特征匹配模块、控制模块和显示器模块连接。
该种基于kinect的手势控制液压支架的虚拟示教方法,其具体步骤是:
(1)预先设定八个不同的标准手势,并将八个手势存储到控制模块中;
(2)控制模块将八个标准手势分别对应液压支架的降柱、移架、升柱、推溜、降护帮板、升护帮板、收前梁和升前梁八个动作的控制信号;
(3)初始化kinect模块,设定摄像机仰角,操作人员站立在距离摄像头1.2米到3.5米范围之间,做出设定的八个标准手势之一;
(4)kinect模块检测操作人员的动作,并从颜色流、深度流和骨架流中获取人体骨骼信息数据帧;
(5)景深数据获取模块分析处理kinect模块传来的人体骨骼信息数据帧,获得图像景深数据,提取出人体骨骼信息,通过建立人体手臂关节的3D坐标系,得到人体手臂关节节点坐标,以识别人体不同的部位;
(6)关节点信息处理模块通过所得到的人体手臂关节的3D坐标,计算得出人体肩关节三个自由度方向上的转动角度,肘关节两个自由度方向上的转动角度;根据人体肩关节和肘关节转动角度信息,识别出人体手臂骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来进行数据处理,具体的过程为:
如图3所示,将人体右臂肩关节的运动分为屈伸运动,展收运动,旋转运动,分别对应角度α1、β1、γ1。人体肘关节运动为屈伸运动,对应角度为δ1。在人体双肩关节中间点处建立基准坐标系o0-x0y0z0,设人体右臂肩关节骨骼节点的3D坐标为(x1,y1,z1),右臂肘关节骨骼节点的3D坐标为(x2,y2,z2),右臂腕关节骨骼节点的3D坐标为(x3,y3,z3);
右臂肩宽
右臂大臂长
右臂小臂长
对于肩关节屈伸动作,-40°<α1<90°,
对于肩展收动作,-90°<β1<20°,
对于肘关节屈伸动作,0°<δ1<130°,
对于肩关节旋转运动,并不能直接由已知坐标求出。这里利用建立人体关节D-H坐标系,根据坐标变换原理得出腕关节节点的坐标表达式,然后根据已知的腕关节节点坐标反推出γ1。
根据表1中的D-H参数,写出各个关节对应的仿射变换矩阵。
得到总的变换矩阵为
其中
x3=px=L1cosθ2sinθ3+L2cosθ5(sinθ2sinθ4+cosθ2cosθ3cosθ4)+L2cosθ2sinθ3sinθ5
y3=px=L1sinθ2sinθ3-L2cosθ5(cosθ2sinθ4+cosθ3cosθ4sinθ2)+L2sinθ2sinθ3sinθ5
z3=L0-L1cosθ3-L2cosθ3sinθ5+L2cosθ4cosθ5sinθ3
其中
根据已知的角度和长度,代入上述公式中,可求出肩关节的旋转运动角度γ1(-90°<γ1<45°);
(7)手势特征匹配模块将上述的各个不同的关节角度信息与控制模块中存储的八个标准手势的各个关节角度信息进行特征匹配;若匹配未成功,则返回步骤(3),若匹配成功且持续5秒,则手势特征匹配模块将数据传递给控制模块;
(8)控制模块接收到手势特征匹配模块传来的匹配成功的数据,分析处理后,发出与该手势相对应的液压支架的动作控制信号,进而控制三维虚拟液压支架动作,并通过显示器模块显示;表2是每个不同的手势特征对应的液压直接动作。
表1:
i | α | a | d | θ |
1 | 0 | 0 | L0 | 0 |
2 | 90 | 0 | 0 | θ2 |
3 | 90 | 0 | 0 | θ3 |
4 | 90 | 0 | L1 | θ4 |
5 | 0 | L2 | 0 | θ5 |
表2:
α1 | β1 | γ1 | δ1 | 动作 | |
1 | 70 | -70 | 0 | 90 | 降柱 |
2 | 30 | 0 | -90 | 90 | 移架 |
3 | 0 | -90 | 0 | 90 | 升柱 |
4 | 0 | -90 | -90 | 90 | 推溜 |
5 | 0 | -90 | 45 | 0 | 降护帮板 |
6 | 90 | 0 | 45 | 90 | 升护帮板 |
7 | 90 | 0 | 45 | 0 | 收前梁 |
8 | 90 | -90 | 0 | 0 | 升前梁 |
Claims (1)
1.一种基于kinect的手势控制液压支架的虚拟示教方法,其特征在于,其具体步骤是:
(1)预先设定八个不同的标准手势,并将八个手势存储到控制模块中;
(2)控制模块将八个标准手势分别对应液压支架的降柱、移架、升柱、推溜、降护帮板、升护帮板、收前梁和升前梁八个动作的控制信号;
(3)初始化kinect模块,设定摄像机仰角,操作人员站立在距离摄像头1.2米到3.5米范围之间,做出设定的八个标准手势之一;
(4)kinect模块检测操作人员的动作,并从颜色流、深度流和骨架流中获取人体骨骼信息数据帧;
(5)景深数据获取模块分析处理kinect模块传来的人体骨骼信息数据帧,获得图像景深数据,提取出人体骨骼信息,通过建立人体手臂关节的3D坐标系,得到人体手臂关节节点坐标,以识别人体不同的部位;
(6)关节点信息处理模块通过所得到的人体手臂关节的3D坐标,计算得出人体肩关节三个自由度方向上的转动角度,肘关节两个自由度方向上的转动角度;根据人体肩关节和肘关节转动角度信息,识别出人体手臂骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来进行数据处理;
(7)手势特征匹配模块将上述的各个不同的关节角度信息与控制模块中存储的八个标准手势的各个关节角度信息进行特征匹配;若匹配未成功,则返回步骤(3),若匹配成功,则手势特征匹配模块将数据传递给控制模块;
(8)控制模块接收到手势特征匹配模块传来的匹配成功的数据,分析处理后,发出与该手势相对应的液压支架的动作控制信号,进而控制三维虚拟液压支架动作,并通过显示器模块显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510071854.3A CN104700403B (zh) | 2015-02-11 | 2015-02-11 | 一种基于kinect的手势控制液压支架的虚拟示教方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510071854.3A CN104700403B (zh) | 2015-02-11 | 2015-02-11 | 一种基于kinect的手势控制液压支架的虚拟示教方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104700403A CN104700403A (zh) | 2015-06-10 |
CN104700403B true CN104700403B (zh) | 2016-11-09 |
Family
ID=53347485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510071854.3A Active CN104700403B (zh) | 2015-02-11 | 2015-02-11 | 一种基于kinect的手势控制液压支架的虚拟示教方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104700403B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105500370B (zh) * | 2015-12-21 | 2018-11-02 | 华中科技大学 | 一种基于体感技术的机器人离线示教编程***及方法 |
CN108472810A (zh) * | 2016-01-29 | 2018-08-31 | 三菱电机株式会社 | 机器人示教装置和机器人控制程序生成方法 |
EP3411195B1 (en) * | 2016-02-05 | 2022-08-31 | ABB Schweiz AG | Controlling an industrial robot using interactive commands |
JP6585665B2 (ja) * | 2017-06-29 | 2019-10-02 | ファナック株式会社 | 仮想オブジェクト表示システム |
JP6781201B2 (ja) * | 2018-06-05 | 2020-11-04 | ファナック株式会社 | 仮想オブジェクト表示システム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103170973A (zh) * | 2013-03-28 | 2013-06-26 | 上海理工大学 | 基于Kinect摄像机的人机协作装置及方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102727362B (zh) * | 2012-07-20 | 2014-09-24 | 上海海事大学 | 基于体感外设手臂运动追踪的康复训练***及其训练方法 |
CN104108097A (zh) * | 2014-06-25 | 2014-10-22 | 陕西高华知本化工科技有限公司 | 基于手势控制的上下料机械手*** |
-
2015
- 2015-02-11 CN CN201510071854.3A patent/CN104700403B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103170973A (zh) * | 2013-03-28 | 2013-06-26 | 上海理工大学 | 基于Kinect摄像机的人机协作装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104700403A (zh) | 2015-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104700403B (zh) | 一种基于kinect的手势控制液压支架的虚拟示教方法 | |
CN103135756B (zh) | 生成控制指令的方法和*** | |
CN103472916A (zh) | 一种基于人体手势识别的人机交互方法 | |
CN107688391A (zh) | 一种基于单目视觉的手势识别方法和装置 | |
CN102508578B (zh) | 投影定位装置及方法、交互***和交互方法 | |
CN104570731A (zh) | 一种基于Kinect的无标定人机交互控制***及方法 | |
CN104423569A (zh) | 指向位置侦测装置、方法及计算机可读取纪录媒体 | |
CN103092437B (zh) | 一种基于图像处理技术的便捷式触控交互*** | |
US20130202212A1 (en) | Information processing apparatus, information processing method, and computer program | |
CN104808788A (zh) | 一种非接触式手势操控用户界面的方法 | |
CN205068294U (zh) | 机器人人机交互装置 | |
CN104656893A (zh) | 一种信息物理空间的远程交互式操控***及方法 | |
CN100478860C (zh) | 一种电子平面显示定位***及定位方法 | |
CN103824072A (zh) | 对手写字符的字体结构进行检测的方法及装置 | |
CN103823548A (zh) | 电子设备、穿戴式设备、控制***和方法 | |
Jaemin et al. | A robust gesture recognition based on depth data | |
CN202188830U (zh) | 单相机多测点动位移测量装置 | |
CN102841679A (zh) | 一种非接触式人机互动方法与装置 | |
CN102479386A (zh) | 基于单目视频的人体上半身三维运动跟踪方法 | |
Hou et al. | Four-point trapezoidal calibration algorithm for human-computer interaction system based on 3D sensor | |
CN118098033A (zh) | 基于混合现实技术的教学***及方法 | |
CN105373329A (zh) | 显示器与展台的交互方法及*** | |
CN203070205U (zh) | 一种基于手势识别的输入设备 | |
CN203786665U (zh) | 非接触式屏幕互动传媒装置 | |
CN202749066U (zh) | 一种非接触式物展交互*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |