CN109359514B - 一种面向deskVR的手势跟踪识别联合策略方法 - Google Patents
一种面向deskVR的手势跟踪识别联合策略方法 Download PDFInfo
- Publication number
- CN109359514B CN109359514B CN201811002833.6A CN201811002833A CN109359514B CN 109359514 B CN109359514 B CN 109359514B CN 201811002833 A CN201811002833 A CN 201811002833A CN 109359514 B CN109359514 B CN 109359514B
- Authority
- CN
- China
- Prior art keywords
- image
- hand
- depth
- gesture
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向deskVR的手势跟踪识别联合策略方法,首先通过卷积神经网络离线训练手势公开数据集ICVL,得到一个鲁棒性好、准确率高以及识别速度快的模型,并且通过合成数据测试联合方法准确率与速度的平衡点Rate,然后通过深度摄像头实时捕获深度图像,在对图像一系列预处理之后,根据手图像占比比例分别传入基于快速模型的手势识别方法或基于五区域卷积神经网络模型,返回识别后的关节点三维信息,进而映射三维人体模型。利用本发明的识别方法,在deskVR应用环境下具有良好的交互功能,在识别率、运算速度、普适性及准确性等方面表现良好。
Description
技术领域
本发明属于人机交互技术领域,尤其是涉及一种面向deskVR的手势 跟踪识别联合策略方法。
背景技术
沉浸式应用程序的典型代表是桌面VR。它可以广泛用于数据分析, 观看VR电影。这些应用一般提供立体视觉和头部跟踪,同时它们还需要 为人机交互提供手势识别。坐在椅子上并将肘部放在桌子上使得可以在 VR环境中进行长时间的手势交互。由于头戴式显示器(HMD)会阻挡眼 睛观察现实世界,因此鼠标和键盘不再适合沉浸式虚拟环境。手柄是成本 最低的最成熟的解决方案,然而用户不能直接控制。
目前,市场上的手势传感器,包括Leap Motion,使用“HMD+手势 传感器”来实现通常的以自我为中心的VR交互。但是这种手势识别方法 不适用于桌面VR的应用场景,因为它具有以下特点:1)有限的手势活 动范围:一般来说,VR体验是从自由视角观看的,受手势传感器范围的 限制,必须将手势传感器附着于VR头戴式显示器上。虽然这种设置确保 可以在各种位置跟踪手势,不会随着人体移动而跟踪丢失,但是眼睛必须 跟随手的运动。2)严重的自闭塞:由于手指的4自由度(DOF),自闭 塞是自我中心观点中的常见问题。现有方法本身是VR中手势交互进一步 自我遮挡的原因(手势传感器固定在VR耳机上)。尽管确保传感器检测 到的手的图像完整,但是手指位置的视觉信息很容易被手背遮挡。在这种 情况下。当前的手势识别方法仍然难以准确地识别大的遮挡区域下的关节 位置。3)容易疲劳:桌面VR体验要求用户佩戴VR设备。重型装置很 容易在短时间内引起颈部疲劳,特别是坐着。随着制造商减轻HMD设备 的重量,在VR耳机上捆绑更多传感器似乎是不明智的。
基于deskVR场景,即用户坐在办公椅上进行交互操作,我们提出了 使用前置摄像头的裸手跟踪技术。具体来说,我们采用计算机视觉技术和 深度相机进行3D手部跟踪,可以避免亮度干扰。因此,用户可以专注于 场景的内容,而不需要眼睛跟随手的移动。这种设置可以释放用户的视线, 减少用户限制并确保交互的自然性。
随着深度传感器的广泛使用,手势估计领域变得非常活跃。通常,手 势估计方法可以简单地分为基于模型的方法和数据驱动的方法。基于模型 的技术考虑先验3D手模型,其姿势由一些跟踪过程随时间确定。但是这 些方法需要某种准确的初始化。有提出一种基于模型的方法,可以实时跟 踪完全关节的手(没有GPU的桌面上25FPS)。该方法对复杂手势的识 别率低。也有使用粒子群优化(PSO)进行基于模型的方法,但它在GPU 上只有15fps。与基于模型的方法相比,数据驱动方法通过学***均误差增加到12毫米以上。这意味着手部图像越不完整,自遮挡 将越严重,并且手势识别将越困难。最近,有几种方法使用3D体素网格 作为3D CNN的输入。它们的性能优于2D CNN,用于捕获深度数据的空 间结构。但V2V-PoseNet在单个GPU中只有3.5fps。目前的方法在数百 万数据集的训练中具有良好的单手姿态估计性能,但在一般计算机的VR 环境中难以实现实时跟踪。
在所有上述方法中,仍然存在实时和准确性能之间的折衷。具有高精 度的技术通常以低帧速率工作,因此不适用于空间沉浸式场景中的交互式 ***。传统的基于模型的方法具有更快的速度,但复杂手势的识别准确性 较低。复杂的CNN网络具有高精度但实时性差,占用了许多GPU计算资 源。
发明内容
本发明提供了一种面向deskVR的手势跟踪识别联合策略方法,识别 效果好,实时性能高。
一种面向deskVR的手势跟踪识别联合策略方法,其特征在于,包括 以下步骤:
(1)搭建五区域卷积神经网络模型,所述五区域卷积神经网络模型 由若干个不同的卷积层、池化层、激活层和全连接层组成;
(2)选取训练集,并设置五区域卷积神经网络模型的训练参数;
(3)根据五区域卷积神经网络模型及其训练参数,以最小化损失函 数为目标训练模型,得到深度图像手势估计神经网络模型;
(4)利用合成的深度数据集,统计数据集中各手势占图片面积比例 的分布,测定在识别准确性和速度上达到最佳性能时的手面积比Rate,设 定为策略选择阈值;
(5)利用深度摄像机获取实时的深度图像帧,并对图像帧预处理;
(6)根据最近邻算法,在每个独立的人体区域上检测手部区域;若 能够检测出手部区域,则执行步骤(7),若检测不到,则返回步骤(5);
(7)将检测出的手部深度图归一化处理,并计算出手图像面积所占 比例rate,若rate>Rate,则执行步骤(8),若rate<Rate,则执行步骤(9);
(8)基于快速模型的手势识别方法对步骤(7)传入的深度帧进行手 势关节点识别,并转到步骤(10);
(9)基于五区域卷积神经网络模型对步骤(7)传入的深度帧的手势 关节点识别;
(10)通过深度摄像机的参数,将关节点坐标从图像坐标系转换到物 理坐标系,并最终映射三维手势模型。
本发明通过基于快速模型的方法识别大量简单手势图像,而将复杂手 势图像移交给CNN;CNN网络和模型仿真的许多步骤可以以交互速度运 行。该方法在速度和准确性方面表现出良好的性能。
步骤(1)中,五区域卷积神经网络包括:一个数据输入层、六个卷 积层、三个池化层、两个eltwise层、两个全连接层。第一层为数据输入 层,然后是六个卷积层,两个eltwise层分别位于第三、第五个卷积层之 后,三个池化层分别位于第二个卷积层,第一、第二个eltwise层之后, 两个全连接层位于第三个池化层之后。
其中所述六个卷积层卷积核大小都为3×3,卷积步长为1,各卷积核 个数分别为16、16、32、32、64、64。
所述三个池化层卷积核大小为2×2,步长为2。每个卷积层后面跟着 一个ReLU激活,两个池化层之间通过残差连接增加特征图尺寸。
步骤(2)中,训练集采用公开数据集ICVL进行模型训练,包含大量 已标注的14个关节的训练图像和测试图像。
步骤(3)中,所述五区域卷积神经网络模型的训练过程为:
(3-1)根据手部二值图像检测并绘制其外部轮廓,然后根据道格拉 斯-普克算法,求出轮廓的封闭多边形,确定封闭多边形的中心;
(3-2)以该封闭多边形的中心为中心提取一个立方体,将立方体重 新调整大小,深度值归一化为[-1,1]作为ConvNet的输入;
(3-3)深度值归一化后的图像作为输入,先进入网络通过六个卷积 层进行特征提取,将输出特征映射到五个特征区域:R1,R2,R3,R4,R5,其 中,R1-R4分别为以图像四个顶点为顶点且沿着特征图边缘提取的固定 大小区域,R5为以图像中心为区域中心提取的同样大小区域,以图像中心 为区域中心,五个特征区域作为分支,分别馈送到两个全连接层进行回归, 每个回归器的丢失率为0.5;
(3-4)训练使用最小批量为128的随机梯度下降,使用0.0005的重 量衰减和0.9的动量,学习率从0.005开始,每5万次迭代后除以10,模 型训练达到200000次迭代。
步骤(4)中,所述策略选择阈值的测定方法为:
(4-1)标准化手的图像面积,得到手的标准面积,所述的标准面积 为手指完全伸展,手掌面向摄像头,在距摄像头0.7m处所成像手的面积, 所述标准化的公式为:
(4-2)从合成的深度数据集中随机选出2000帧具有时间序列的深度 帧作为测试集,统计其中深度帧的分布,根据一般手指宽度10-20mm,将 距离误差阈值设置为15mm,根据不同面积比率测试关节识别点准确 率以及相应的实时速度,得到准确性和速度之间的平衡点,得到最佳性能 时的手面积比Rate,设定为策略选择阈值。最后选择60%的面积比作为平 衡点。在这个阈值下,精度和速度都有很好的性能。
步骤(5)的具体步骤为:
(5-2)对采集到的原始深度图像D1进行中值滤波,采用固定大小的 滤波核对图像进行滤波操作,消除噪声和图像黑洞;所述中值滤波处理的 公式为:
D2(x,y)=med{D1(x-k,y-l)}(k,l∈W)
其中,D2(x,y)为滤波处理后的深度图像,D1(x,y)为原始图像,(x,y) 为坐标处的深度值,W代表二维滤波模板,k表示模板的长度,l表示模 板的宽度。
(5-3)对滤波处理后的深度图像进行图像前景提取操作,可设定0.7m 为距离过滤阈值,去除深度大于0.7m的背景数据,减小之后的图像计算 量;所述图像前景提取操作的公式为:
其中,fg(x,y)表示前景图像中(x,y)处的逻辑值,d(x,y)表示深度图像 (x,y)坐标处的深度值。
(5-4)对前景提取操作后的深度图像进行膨胀操作,而后执行腐蚀 操作完成对图像的预处理。
步骤(8)中,所述基于快速模型的手势识别方法的具体步骤为:
(8-2)快速点云拟合,待匹配手势与候选手势对应点匹配,转换成 相同的坐标系以实现刚体变换,使用ICP算法重复迭代,解出最优化能量 方程:minE3D+E2D+Ewrist,得到手势关节点三维信息,三维信息能量 函数的方程为:
其中,E3D为三维信息能量函数,ω1为点云在最优化能量方程中所占 权重系数,x表示三维点云P中的3D点,是手姿势θ在手模型上 的x的映射,用2D轮廓E2D模拟对齐渲染的手模型的2D轮廓与从传感器 数据中提取的二维轮廓S,其能量方程为:
其中,ω2为二维轮廓信息在最优化能量方程中所占权重系数,p是渲 染二维轮廓S中的2D点,∏S(p,θ)表示p在从传感器获得二维轮廓S上的 投影点,Ewrist表示腕部对准能量,在优化中使用前臂的简化概念,其强 制腕关节沿其轴线定位,其能量方程为:
(8-3)添加刚体约束,包括:每个手指上的两个关节角度保持相互 匹配;基部指骨无碰撞;基骨和中骨保持一起移动;小拇指和中指保持一 起移动;手指握拳时,外展程度为0,否则为默认的45°阈值。
与现有技术相比,本发明具有以下有益效果:
1、本发明以深度图像为数据源,克服了RGB图像容易受到外界光照、 阴影等因素变化的影响。
2、本发明充分考虑了deskVR的使用特点及应用场景,通过前置深度 摄像头引入裸手交互,这种设置帮助用户专注于场景的内容,而无需移动 头部跟踪手,减少了用户限制并确保了交互的自然性。
3、本发明通过结合基于模型的方法和深度卷积神经网络的方法,在 deskVR环境中引入了手势交互速度-准确性的权衡策略,该算法在一般的 设备上实现了实时性,且具有较高的精度。
附图说明
图1为本发明面向deskVR的手势跟踪识别联合策略方法的架构图;
图2为本发明针对特征提取的五区域卷积神经网络模型结构示意图;
图3为本发明的图像标准化示意图;
图4a为测试集中不同面积比的帧所占数量的图;
图4b为设置不同面积比阈值对FPS影响的图;
图4c为设置不同面积比阈值对帧识别误差影响的图;
图4d为选择平衡点时,本发明方法与现有方法的准确率对比图;
图5为本发明在desk VR中应用效果图。
具体实施方式
下面结合说明书附图与具体实施方式对本发明做进一步详细的说明。
如图1所示,一种面向deskVR的手势跟踪识别联合策略方法,具体 包括以下步骤:
训练CNN模型阶段。
S01:获取数据集并预处理。采用公开数据集ICVL进行模型训练。根 据opencv中的轮廓处理函数,根据手部二值图像检测并绘制其外部轮廓。 根据道格拉斯-普克算法,求出轮廓的封闭多边形。确定封闭多边形的中 心,以区域中心为中心提取一个尺寸为150mm的立方体。然后将立方体重 新调整为96×96的图像,深度值归一化为[-1,1]作为ConvNet的输入。
S02:构造卷积神经网络,具体结构为:五区域卷积神经网络模型, 参见图2,包括:一个数据输入层、六个卷积层、三个池化层、两个eltwise 层、两个全连接层。
第一层为数据输入层,然后是六个卷积层,两个eltwise层分别位于 第三、第五个卷积层之后,三个池化层分别位于第二个卷积层,第一、第 二个eltwise层之后,两个全连接层位于第三个池化层之后。
六个卷积层卷积核大小都为3×3,卷积步长为1,各卷积核个数分别为 16、16、32、32、64、64。
三个池化层卷积核大小为2×2,步长为2。每个卷积层后面跟着一个 ReLU激活,两个池化层之间通过残差连接增加特征图尺寸。
六层卷积输出的12×12×64特征映射到N×N+1的网格中,此处设置 N=2,96×96图像边界内单个区域的接受区域为64×64,分别为R1,R2, R3,R4,R5。进入两个2048维全连接层进行回归,每个回归器的丢失率 为0.5,网络概貌见附图3。回归器输出表示手关节的3D世界坐标的3×J 向量,其中J是关节的数量。
训练使用最小批量为128的随机梯度下降。使用0.0005的重量衰减和 0.9的动量。学习率从0.005开始,每5万次迭代后除以10,模型训练达 到200000次迭代。
Rate阈值测定,需要实验测定一个准确率与速度平衡点。
S04:根据不同面积比率测试关节识别点准确率以及相应的实时速 度,最后选择60%的面积比作为平衡点,在这个阈值下,精度和速度都有 很好的性能。如图4a所示,统计测试集中不同面积比图像帧的数量,测 试集中大部分图像帧面积比率在60%以上。如图4b、图4c所示,设置不 同面积比阈值对FPS的影响以及设置不同面积比阈值对帧识别误差的影响, 当选择面积比阈值为60%时,准确率与实时性皆有一个很好的性能。如图4d所示,将本发明的方法与现有的几种方法的比较,在不同误差阈值下都 有很好的准确率。
实时跟踪识别阶段。
S05:采用kinectV2深度摄像头捕捉深度图像帧D1(分辨率为 512×424),指定等待下一帧深度图像数据的时间,根据K近邻算法检测, 若存在手,进入步骤6,否则传入下一帧。
S06:对图像D1进行中值滤波D2(x,y)=med{D1(x-k,y-l)}(k,l∈ W),其中W代表二维滤波模板,k表示模板的长度,l表示模板的宽度, D2(x,y)为滤波处理后的深度图像,D1(x,y)为原始图像。
S07:对滤波处理后的深度图像D2进行图像前景提取操作,深度图像 前景提取的公式,公式中fg(x,y)表示前景图像中d(x,y)处的逻辑值,d(x,y) 表示深度图像(x,y)坐标处的深度值;θ表示深度图像的阈值门限(设定为 0.7m),得到深度图像D3。
S08:对深度图像D3进行膨胀,而后执行腐蚀操作完成对图像的一系 列预处理操作。得到深度图像D4。
S09:将深度图像D4标准化处理,请参考图3,得到标准化处理后的 深度图D5,计算手图像面积所占比例rate,若rate>=Rate进行步骤10, 否则执行步骤12。
S10:根据深度图D5,提取手二维轮廓S,并将深度图映射到三维点 云P;
S11:根据三维点云P,快速点云拟合,使用ICP算法重复迭代,结合 二维信息S,解出最优化能量方程:minE3D+E2D+Ewrist,得到手势关 节点三维信息。
S12:根据深度图像D5中手部轮廓,计算手部中心,从深度图像D5中 以手部区域中心为中心提取一个尺寸为150mm的立方体。
S13:将手部深度图像传入步骤S08训练好的caffe模型中进行识别, 返回估计的14个手关节点的三维坐标。
S14:通过深度摄像机的参数,将步骤S11、步骤S13返回的手关节三 维参数从图像坐标系转换到物理坐标系,并最终映射三维人体模型,在VR 中跟踪效果如图5所示。
本发明通过基于快速模型的方法识别大量简单手势图像,将复杂手势 图像移交给CNN。CNN网络和模型仿真的许多步骤可以以交互速度运行, 该方法在速度和准确性方面表现出良好的性能。
Claims (9)
1.一种面向deskVR的手势跟踪识别联合策略方法,其特征在于,包括以下步骤:
(1)搭建五区域卷积神经网络模型,所述五区域卷积神经网络模型由若干个不同的卷积层、池化层、激活层和全连接层组成;
(2)选取训练集,并设置五区域卷积神经网络模型的训练参数;
(3)根据五区域卷积神经网络模型及其训练参数,以最小化损失函数为目标训练模型,得到深度图像手势估计神经网络模型;
(4)利用合成的深度数据集,统计数据集中各手势占图片面积比例的分布,测定在识别准确性和速度上达到最佳性能时的手面积比Rate,设定为策略选择阈值;
(5)利用深度摄像机获取实时的深度图像帧,并对图像帧预处理;
(6)根据最近邻算法,在每个独立的人体区域上检测手部区域;若能够检测出手部区域,则执行步骤(7),若检测不到,则返回步骤(5);
(7)将检测出的手部深度图归一化处理,并计算出手图像面积所占比例rate,若rate>Rate,则执行步骤(8),若rate<Rate,则执行步骤(9);
(8)基于快速模型的手势识别方法对步骤(7)传入的深度帧进行手势关节点识别,并转到步骤(10);所述基于快速模型的手势识别方法的具体步骤为:
(8-2)根据三维点云P,快速点云拟合,使用ICP算法重复迭代,解出最优化能量方程:minE3D+E2D+Ewrist,得到手势关节点三维信息,三维信息能量函数的方程为:
其中,E3D为三维信息能量函数,ω1为点云在最优化能量方程中所占权重系数,x表示三维点云P中的3D点,是手姿势θ在手模型上的x的映射,用2D轮廓E2D模拟对齐渲染的手模型的2D轮廓与从传感器数据中提取的二维轮廓S,其能量方程为:
其中,ω2为二维轮廓信息在最优化能量方程中所占权重系数,p是渲染二维轮廓S中的2D点,∏s(p,θ)表示p在从传感器获得二维轮廓S上的投影点,Ewrist表示腕部对准能量,在优化中使用前臂的简化概念,其强制腕关节沿其轴线定位,其能量方程为:
其中,ω3为腕部信息在最优化能量方程中所占权重系数,k0(θ)是腕关节的3D位置,l是由PCA提取的与腕带对应3D点的2D线;
(8-3)添加刚体约束,包括:每个手指上的两个关节角度保持相互匹配;基部指骨无碰撞;基骨和中骨保持一起移动;小拇指和中指保持一起移动;手指握拳时,外展程度为0,否则为默认的45°阈值;
(9)基于五区域卷积神经网络模型对步骤(7)传入的深度帧的手势关节点;
(10)通过深度摄像机的参数,将关节点坐标从图像坐标系转换到物理坐标系,并最终映射三维手势模型。
2.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(1)中,所述五区域卷积神经网络模型由6个具有3×3内核的卷积层和3个2×2内核的池化层组成,每个卷积层后面跟着一个ReLU激活层,两个池化层之间通过残差连接增加特征图尺寸。
3.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(2)中,所述的训练集为数据集ICVL。
4.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(3)中,所述五区域卷积神经网络模型的训练过程为:
(3-1)根据手部二值图像检测并绘制其外部轮廓,然后根据道格拉斯-普克算法,求出轮廓的封闭多边形,确定封闭多边形的中心;
(3-2)以该封闭多边形的中心为中心提取一个立方体,将立方体重新调整大小,深度值归一化为[-1,1]作为ConvNet的输入;
(3-3)深度值归一化后的图像作为输入,先进入网络通过六个卷积层进行特征提取,将输出特征映射到五个特征区域:R1,R2,R3,R4,R5,其中,R1-R4分别为以图像四个顶点为顶点且沿着特征图边缘提取的固定大小区域,R5为以图像中心为区域中心提取的同样大小区域,以图像中心为区域中心,五个特征区域作为分支,分别馈送到两个全连接层进行回归,每个回归器的丢失率为0.5;
(3-4)训练使用最小批量为128的随机梯度下降,使用0.0005的重量衰减和0.9的动量,学习率从0.005开始,每5万次迭代后除以10,模型训练达到200000次迭代。
5.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(4)中,所述策略选择阈值的测定方法为:
(4-1)标准化手的图像面积,得到手的标准面积,所述的标准面积为手指完全伸展,手掌面向摄像头,在距摄像头0.7m处所成像手的面积,所述标准化的公式为:
6.根据权利要求1或5所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(4)中,所述策略选择阈值的手面积比Rate为60%。
7.根据权利要求1所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,步骤(5)中,所述的预处理具体步骤为:对实时深度图像帧进行中值滤波处理,然后进行图像前景提取操作,最后进行膨胀与腐蚀操作。
8.根据权利要求7所述的面向deskVR的手势跟踪识别联合策略方法,其特征在于,所述中值滤波处理的公式为:
D2(x,y)=med{D1(x-k,y-l)}(k,l∈W)
其中,D2(x,y)为滤波处理后的深度图像,D1(x,y)为原始图像,(x,y)为坐标处的深度值,W代表二维滤波模板,k表示模板的长度,l表示模板的宽度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811002833.6A CN109359514B (zh) | 2018-08-30 | 2018-08-30 | 一种面向deskVR的手势跟踪识别联合策略方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811002833.6A CN109359514B (zh) | 2018-08-30 | 2018-08-30 | 一种面向deskVR的手势跟踪识别联合策略方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109359514A CN109359514A (zh) | 2019-02-19 |
CN109359514B true CN109359514B (zh) | 2020-08-04 |
Family
ID=65350190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811002833.6A Active CN109359514B (zh) | 2018-08-30 | 2018-08-30 | 一种面向deskVR的手势跟踪识别联合策略方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109359514B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993108B (zh) * | 2019-03-29 | 2019-12-03 | 济南大学 | 一种增强现实环境下的手势纠错方法、***及装置 |
CN110243828B (zh) * | 2019-07-18 | 2021-07-30 | 华中科技大学 | 基于卷积神经网络的生物组织三维成像方法 |
CN110570455B (zh) * | 2019-07-22 | 2021-12-07 | 浙江工业大学 | 一种面向房间vr的全身三维姿态跟踪方法 |
CN111368668B (zh) * | 2020-02-25 | 2023-05-23 | 北京字节跳动网络技术有限公司 | 三维手部识别方法、装置、电子设备及存储介质 |
CN111709384B (zh) * | 2020-06-22 | 2023-06-30 | 北京思特奇信息技术股份有限公司 | Ar手势识别方法、装置、电子设备及存储介质 |
CN111930231B (zh) * | 2020-07-27 | 2022-02-25 | 歌尔光学科技有限公司 | 交互控制方法、终端设备及存储介质 |
CN113840177B (zh) * | 2021-09-22 | 2024-04-30 | 广州博冠信息科技有限公司 | 直播互动方法、装置、存储介质与电子设备 |
WO2023219254A1 (ko) * | 2022-05-09 | 2023-11-16 | 주식회사 피앤씨솔루션 | 증강현실 글래스 장치의 손 거리 추정 방법 및 장치 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103777741A (zh) * | 2012-10-19 | 2014-05-07 | 原相科技股份有限公司 | 基于物件追踪的手势辨识方法及*** |
CN105718878A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 |
WO2016114930A3 (en) * | 2015-01-12 | 2016-11-03 | Pcms Holdings, Inc. | Systems and methods for augmented reality art creation |
CN106648103A (zh) * | 2016-12-28 | 2017-05-10 | 歌尔科技有限公司 | 一种vr头戴设备的手势跟踪方法和vr头戴设备 |
CN107111357A (zh) * | 2014-10-29 | 2017-08-29 | 高通股份有限公司 | 使用手势元素的手势识别 |
CN107168516A (zh) * | 2017-03-31 | 2017-09-15 | 浙江工业大学 | 基于vr及手势交互技术的全球气候矢量场数据可视化方法 |
CN107180226A (zh) * | 2017-04-28 | 2017-09-19 | 华南理工大学 | 一种基于组合神经网络的动态手势识别方法 |
CN107894834A (zh) * | 2017-11-09 | 2018-04-10 | 上海交通大学 | 增强现实环境下控制手势识别方法与*** |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9552673B2 (en) * | 2012-10-17 | 2017-01-24 | Microsoft Technology Licensing, Llc | Grasping virtual objects in augmented reality |
-
2018
- 2018-08-30 CN CN201811002833.6A patent/CN109359514B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103777741A (zh) * | 2012-10-19 | 2014-05-07 | 原相科技股份有限公司 | 基于物件追踪的手势辨识方法及*** |
CN107111357A (zh) * | 2014-10-29 | 2017-08-29 | 高通股份有限公司 | 使用手势元素的手势识别 |
WO2016114930A3 (en) * | 2015-01-12 | 2016-11-03 | Pcms Holdings, Inc. | Systems and methods for augmented reality art creation |
CN105718878A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 |
CN106648103A (zh) * | 2016-12-28 | 2017-05-10 | 歌尔科技有限公司 | 一种vr头戴设备的手势跟踪方法和vr头戴设备 |
CN107168516A (zh) * | 2017-03-31 | 2017-09-15 | 浙江工业大学 | 基于vr及手势交互技术的全球气候矢量场数据可视化方法 |
CN107180226A (zh) * | 2017-04-28 | 2017-09-19 | 华南理工大学 | 一种基于组合神经网络的动态手势识别方法 |
CN107894834A (zh) * | 2017-11-09 | 2018-04-10 | 上海交通大学 | 增强现实环境下控制手势识别方法与*** |
Non-Patent Citations (5)
Title |
---|
A Pose-driven Physically-based Interactive System using Kinect;Shufang Lu 等;《2016 International Conference on Cyberwords》;20161124;247-249 * |
Realtime and Robust Hand Tracking from Depth;Chen Qian 等;《CVPR 2014》;20140925;1-8 * |
Remain Seated: Towards Fully-Immersive Desktop VR;Daniel Zielasko 等;《2017 IEEE 3rd Workshop on Everyday Vitrual Reality》;20170626;1-6 * |
基于卷积神经网络优化TLD运动手势跟踪算法;王民 等;《计算机工程与应用》;20180622;第55卷(第9期);151-156 * |
基于可穿戴传感器的普适化人体活动识别;范长军 等;《传感技术学报》;20180715;第31卷(第7期);1124-1131 * |
Also Published As
Publication number | Publication date |
---|---|
CN109359514A (zh) | 2019-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109359514B (zh) | 一种面向deskVR的手势跟踪识别联合策略方法 | |
Sharp et al. | Accurate, robust, and flexible real-time hand tracking | |
CN105389539B (zh) | 一种基于深度数据的三维手势姿态估计方法及*** | |
Ye et al. | Accurate 3d pose estimation from a single depth image | |
CN108734194B (zh) | 一种面向虚拟现实的基于单深度图的人体关节点识别方法 | |
Murthy et al. | Hand gesture recognition using neural networks | |
Bilal et al. | Vision-based hand posture detection and recognition for Sign Language—A study | |
Demirdjian et al. | 3-d articulated pose tracking for untethered diectic reference | |
WO2014117446A1 (zh) | 基于单个视频摄像机的实时人脸动画方法 | |
CN104978548A (zh) | 一种基于三维主动形状模型的视线估计方法与装置 | |
CN113366491B (zh) | 眼球追踪方法、装置及存储介质 | |
JP7282216B2 (ja) | 単眼スチルカメラのビデオにおけるレイヤードモーションの表現と抽出 | |
CN114119739A (zh) | 一种基于双目视觉的手部关键点空间坐标获取方法 | |
Núnez et al. | Real-time human body tracking based on data fusion from multiple RGB-D sensors | |
CN110751097A (zh) | 一种半监督的三维点云手势关键点检测方法 | |
CN113505694A (zh) | 一种基于视线追踪的人机交互方法、装置及计算机设备 | |
Rekik et al. | 3d face pose tracking using low quality depth cameras | |
Varchmin et al. | Image based recognition of gaze direction using adaptive methods | |
Alam et al. | Affine transformation of virtual 3D object using 2D localization of fingertips | |
Gallo et al. | View-independent hand posture recognition from single depth images using PCA and Flusser moments | |
CN113989942A (zh) | 手势识别方法和装置 | |
Che et al. | Real-time 3d hand gesture based mobile interaction interface | |
Hecht et al. | Markerless human motion tracking with a flexible model and appearance learning | |
Ji et al. | Hierarchical topology based hand pose estimation from a single depth image | |
Alves Fernandes et al. | Using Haar-like feature classifiers for hand tracking in tabletop augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |