CN103649967A - 动态手势识别方法和编辑*** - Google Patents
动态手势识别方法和编辑*** Download PDFInfo
- Publication number
- CN103649967A CN103649967A CN201280031023.8A CN201280031023A CN103649967A CN 103649967 A CN103649967 A CN 103649967A CN 201280031023 A CN201280031023 A CN 201280031023A CN 103649967 A CN103649967 A CN 103649967A
- Authority
- CN
- China
- Prior art keywords
- gesture
- scribbling
- model
- scribble
- media
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/333—Preprocessing; Feature extraction
- G06V30/347—Sampling; Contour coding; Stroke extraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
一种在媒体内执行手势识别的方法,该方法包括以下步骤:接收来自至少一个摄像机的至少一个第一原始帧;在所述第一原始帧内绘制至少一个涂写,该涂写指明一个元素;通过在该媒体剩余部分的至少一部分中传播所述涂写,来在该媒体中跟踪所述涂写。
Description
技术领域
本发明主要涉及手势识别的技术领域。
背景技术
人的手势是人与人之间的互动和沟通的一种自然的手段。手势使用手,四肢以及肢体动作来非口头地表达思想或交流信息。人们对试图将人的手势整合到人–机交互界面越来越感兴趣。手势识别在自动化监测以及人工监控的应用中也是重要的,在这些应用中人们可以从人类的的活动和意图中得到有价值的线索。
一般来说,手势被捕获并被嵌入到连续的视频流中,并且,手势识别***必须有能力提取有用的信息以及自动识别不同的运动。众所周知,两个问题对于手势分割及识别是有高度挑战性的:时空变化(spatio-temporal variation),以及端点定位(endpoint localization)。
时空变化来自不仅不同的人以不同的方式移动,甚至同一主体的重复动作都可能会变化这一事实。在促成这种变化所有的因素中,运动速度是最有影响力的,其使得手势信号表现出多个时间的尺度。
端点定位问题是要在连续的数据流中确定一个手势的开始及结束的时间。正如在语音信号中的说出的每个单词之间没有中断,在最自然的出现的情景中,手势是不间断地连在一起的,在单个手势之间没有任何明显的停顿。因此,通过在不同的手势之间寻找明显的停顿来确定各个手势的端点是不可行的。在所有可能的点中详尽地搜索也明显过分昂贵。许多现有的方法假定输入的数据或是在捕获之后被手动地或是在捕获时被分割为多个动作单元。此种方法通常被称为孤立的手势识别(Isolated Gesture Recognition,IGR)而且在要求连续手势识别的现实生活的应用中不易被扩展。
在现有技术中,已经对连续的手势分割和识别提出了几种方法。基于图像分割与识别是如何相互交织在一起,这些方法可以被分为两个主要类别:独立的分割和识别,同时分割和识别。第一类方法通过观察突然的特征变化来检测手势的边界并且分割通常在识别之前进行,后者则将分割和识别看作是同一问题的多个方面并同时执行。这两类中的大多数方法都是基于各种形式的隐马尔可夫模型(HiddenMarkov Model,HMM),或是以动态规划(Dynamic Programming,DP)为基础的方法,例如,动态时间规整(Dynamic Time Warping,DTW)和连续动态规划(Continuous Dynamic Programming,CDP)。
手势识别***的目的是在与若干预定义的手势相关的特定环境中工作。这些之前的预先定义是处理语义鸿沟(semantic gaps)所必需的。手势识别***通常是基于匹配机制的。这些手势识别***尝试将从场景中提取的信息,比如一个骨架(skeleton),与已存储的最相近的模型进行匹配。因此,要识别出一个手势,我们需要有一个预先存储的与该手势相关的模型。
在文献中,有两种主要的方法用于手势识别:通过对动态建模的识别以及通过对状态建模的识别。手势泰克(Gesture Tek)(http://www.gesturetek.com/)提出maestro3d SDK,其包括单手和双手的手势和姿势的函数库。此***提供了易于对新手势建模的能力。在HTTP://www.eyesight-tech.com/技术/中可以看到有限的手势的函数库。微软的Kinect中,手势函数库总是有限的并且用户无法容易地自定义或定义新的手势模型。因为已经认定有多于5000个手势存在,取决于不同的(文化,国家,等等),提供有限的函数库是不够的。
专利号WO2010/135617的文献公开了一种用于执行手势识别的方法和装置。
本发明的一个目的是提供用于手势识别的方法和***,使得用户能够容易地定制手势识别,重定义手势模型,无需任何特殊技能。
本发明的另一目的是提供一种用于动态识别的能够使用常规的二维摄像机的方法和***。
发明内容
本发明的目的是解决上文提出的一个或更多问题的影响。
为了提供对本发明的一些方面的基本认识,下文介绍了本发明的简化的内容。
该内容不是对本发明的详尽的概述。它的目的不是要确定本发明的关键的或重要的元素或是划定本发明的范围。它的唯一目的是提出一些简化形式的概念,作为后文中讨论的更详细的描述的前序。
本发明容易受到各种改进及替代形式的影响,因此在附图中以举例的方式展示具体的实施例。然而,应该被理解的是,对具体实施例的描述在此并不意在将本发明限制于所公开的特定形式。
一定能够被理解的是,在任何这样的实际的实施例的开发中,应该做出具体的实施决策,以实现开发者的特定目标,比如遵守与***相关的以及与企业相关的约束条件。应该被理解的是,这样的开发努力可能耗费时间,不过对受益于本申请公开的本领域技术人员或普通技术人员来说则可能是一种常规性的认知。
根据第一方面,本发明涉及一种在媒体内执行手势识别的方法,该方法包括以下步骤:
-接收来自至少一个摄像机的至少一个第一原始帧;
-在所述第一原始帧内绘制至少一个涂写,该涂写指明一个元素;
-通过在该媒体剩余部分的至少一部分中传播所述涂写,来在该媒体中跟踪所述涂写;
这里的“媒体”一词指的是视频媒体,例如,一个人使用包含摄像头的便携式电子设备,例如移动电话,制作的视频。这里的“手势”用来指明身体的一部分的运动,例如手臂或手的运动。“涂写”一词用来指明由用户制作的一条线,例如在手臂上的一条线。用于在有背景图像中提取停止的对象的涂写的使用是已知的(参见US2009/0278859,在Yssum Research Development的名下)。用于图像着色的传播涂写的使用是已知的(参见US2006/0245645,在Yatziv的名下)。Tao et al图案识别的第3208-3218页阐述了由图像分割***的用户提供的粗糙涂写的使用。
有利地,根据本发明,传播所述述涂写包括基于从前一帧提取的在先信息,来估计所述涂写在下一帧的未来位置,从前一帧提取的信息包括色彩信息和空间信息。
有利地,按如下公式在图像中的每一点计算颜色距离变换:
初始值
有利地,该颜色距离变换包括该图像的两个维度以及来自时间的第三维度,从该颜色距离变换中提取一个骨架。
有利地,首先使用二维高斯掩膜对该帧进行卷积,然后提取在水平和垂直方向的最大值。聚合通过所述涂写的跟踪而确定的多个相关的涂写,为所述聚合的相关的涂写附加上语义标签,以形成手势模型。将当前的涂写与一个已存储的手势模型进行比较。
有利地,进行对规则数据库的查询来触发至少一个与手势标签关联的动作。
根据第二方面,本发明涉及一种用于在媒体内执行手势识别的***,该***至少包括一个涂写绘制器,该涂写绘制器用于在所述第一原始帧内绘制至少一个指明一个元素的涂写,以及一个涂写传播器,该涂写传播器用于通过在该媒体剩余部分的至少一部分中传播所述涂写来在该媒体中跟踪所述涂写,来确定相关的涂写。
有利地,该***包括手势模型制作器,该手势模型制作器用于聚合多个相关的涂写,以形成手势模型,以及手势模型库,该手势模型库存储所述手势模型连同至少一个语义标签。
最好,该***包括手势生成器,该手势生成器包括所述涂写绘制器,所述涂写传播器以及所述手势模型制作器。
最好,该***包括手势管理器,该手势管理器包括所述手势生成器以及包含动作和手势标签之间的链接的规则数据库。
最好,该***包括识别模块,该识别模块包括模型匹配器,该模型匹配器用于将一个当前的涂写与手势模型库中包含的多个已存储的手势模型进行比较。该模型匹配器向该规则数据库发送用于触发与手势标签关联的动作的查询。
根据第三方面,本发明涉及一种计算机程序,该计算机程序包括存储于计算机内存和/或专用***内存的指令,其中,所述计算机程序适合来执行以上提出的方法或连接到以上提车的***。
附图说明
从以下公开内容和权利要求,本发明的目的,优点以及其它特征会变得更明显。参照附图,仅出于举例的目的而给出了以下对优选实施例的非限制性描述,其中
图1是说明一个功能性实施例的方框图;
图2示出了一个基于涂写(scribble)的颜色距离变换的示意性的模拟结果;
图3是一个涂写绘制器的图形用户界面(GUI,Graphical UserInterface)的示例。
具体实施方式
在以下描述中,“手势识别”指:
-手势模型的定义,在此定义中的由应用程序所处理的被创建以及进行硬编码的所有手势;
-手势的识别。
为了识别一个新手势,生成一个模型并将该模型与其语义定义进行关联。
为了启用一个简单的手势建模,本发明提供了一种特定的手势编辑工具。该手势编辑工具基于涂写传播技术。这是一个用户友好的互动工具,在该工具中用户可以通过描绘一些涂写大致指出视频的一些元素。然后,通过传播初始涂写,选定的元素将在视频中被跟踪,以获取其运动信息。
本发明允许用户以简单的方式,动态地以及在匆忙中,来定义将识别的新手势。
所提出的架构被分为两个部分。第一部分是半自动的并且需要用户的交互。这是手势编辑组件。第二部分基于已存储的手势模型和规则来实现该识别过程。
该手势编辑组件由两部分组成,手势生成器(Gesture Creator),以及来存储已生成的模型的手势模型库(Gesture Model Repository)。
该手势生成器模块被分为三个部分:
o首先是涂写绘制器(Scribble Drawer)。涂写绘制器允许用户抛出一个GUI(见图3)来从视频中指定一个元素。如该示例,该用户想要定义一个触发来得知出演者的手臂何时是弯曲的或伸直的。为此,用户在主持人(presenter)的手臂上绘制一个涂写。
o然后涂写传播器(Scribble Propagator)将该涂写传播到该视频的提醒者(reminder),以指明该手臂。
该涂写的传播是通过基于从图像中提取的在先信息估计该涂写在下一个帧的未来位置而实现的。
第一步包括结合色彩以及空间信息。基于当前图像和涂写计算颜色距离变换(以CDT表示)。得到如距离变换的特定信息之外,这个新的变换通过当“远”区域的颜色与该涂写指明的区域相似度高时增加这些区域的值,强调了距离图。给出如Chamfer掩膜(ChamferMask)M的欧几里德距离的估计。DifColor表示两个颜色之间的欧几里德距离,如下所示计算CDT:
初始化
该掩膜被分为两部分,并且完成了对图像的双重扫描,以更新所有的最短距离。
为了得到下一个涂写位置的估计,该CDT被扩展到3D(该图像的两个维度以及来自时间轴的第三维度)或是基于颜色距离变换的体积,以C3DT表示。
在多个图像对中连续进行这种变换。得到的结果可以在多个层中被整理。层t+1表示涂写可以被传播的区域。因此,传播图像t中绘制的涂写可以和从C3DT的层t+1获得的掩膜一起被传播。为了限制偏移以及避免可能的传播误差,该得到的掩膜可能被简化到如同一个简单的涂写。
通过两项操作来从C3DT层提取骨架。首先,用高斯掩模对图像进行卷积,以处理内部的小洞以及图像的瑕疵。然后,最大值在水平方向和垂直方向被提取。一些瑕疵可能在这一步之后出现,所以,为了得到一个干净的涂写,对小组件的压缩是必要的。这个涂鸦被用作下一个图像对的标记。重复前述过程。
然后,用户点击来表示该动作的结束,并安放语义标签。然后,一个手势模型内的所有相关涂写由手势模型制作器汇总,并被存储到手势模型库。该手势模型制作器模块将该手势及在该手势模型上的语义标签相结合。每一个涂写被转化为一个向量,该向量描述该手势的一个状态的空间分布。在处理完所有的涂写后,该模型将包含该手势的所有可能的状态和其时间顺序。并且,拐点及其位移向量也被存储。
在识别模块中,模型匹配器将当前的视频涂写与已存储的手势模型进行比较。如果该涂写与一个以上的模型的开头相匹配,继续与选中的一模型组的下面的元素进行比较,以得到最相近的模型。如果所有的涂写顺序是匹配的,该手势被识别出。在规则数据库的查询得以触发与该手势的标签相关联的动作。一条规则可以被看作是多个基本指令的代数组合;例如:
-举起的手=展示幻灯片&开始录制
-手势1|手势2=动作X。
例如,用户可以是一个正在对科学或商业展示(例如讲座,贸易展)进行拍摄的人。他想要检测多个特定的手势并将它们关联到多个行为,以自动导演该视频。例如,当主持人指明镜头的方向和区域时,摄像头自动变焦。因此,当该主持人指明某物时,该用户制作出一个粗糙的涂写,该涂写指明该出演者的手和手臂。该涂写被自动传播。最后,该用户指示该手势的结束以识别该手势,并将一个语义标签关联到该手势。
本发明使得用户能够动态地来定义多个其想识别的手势。无需专业技能。
本发明的主要优点是自动的前景分割和骨架提取,动态的手势定义,手势编辑,将手势链接到动作/交互操作的能力,以及用户友好地手势建模及识别。
Claims (18)
1.一种在媒体内执行手势识别的方法,该方法包括以下步骤:
-接收来自至少一个摄像机的至少一个第一原始帧;
-在所述第一原始帧内绘制至少一个涂写,该涂写指明一个元素;
-通过在该媒体剩余部分的至少一部分中传播所述涂写,来在该媒体中跟踪所述涂写。
2.根据权利要求1所述的方法,其中,传播所述涂写包括基于从前一帧提取的在先信息来估计所述涂写在下一帧的未来位置。
3.根据权利要求2所述的方法,其中,从前一帧提取的信息包括色彩信息和空间信息。
4.根据权利要求3所述的方法,其中,颜色距离变换在图像中的每一点处被计算。
5.根据权利要求4所述的方法,其中,该颜色距离变换被参照该图像的两个维度以及出自时间的第三维度来计算。
6.根据权利要求4所述的方法,其中,骨架从该颜色距离变换中被提取。
7.根据权利要求6所述的方法,其中,在提取该骨架之前,首先在水平和垂直方向使用二维的高斯掩膜对该帧进行卷积,随后通过提取该卷积过的图像在在两个所述方向的最大值来提取该骨架。
8.根据权利要求1-7中任一项所述的方法,其中,通过跟踪所述涂写而确定的多个相关涂写被聚合,为所述聚合的相关的涂写附加上语义标签,以形成手势模型。
9.根据权利要求8所述的方法,还包括比较当前的涂写与一个已存储的手势模型。
10.根据权利要求9所述的方法,还包括查询一个规则数据库,并且从而触发与一个手势标签相关联的至少一个动作。
11.一种用于在媒体内执行手势识别的***,该***至少包括:
涂写绘制器,该涂写绘制器用于在所述第一原始帧内绘制至少一个指明一个元素的涂写;和
涂写传播器,该涂写传播器用于通过在该媒体剩余部分的至少一部分中传播所述涂写来在该媒体中跟踪所述涂写,以确定多个相关的涂写。
12.根据权利要求11所述的***,该***包括用于聚合相关涂写从而形成手势模型的手势模型制作器。
13.根据权利要求12所述的***,该***包括用于存储所述手势模型连同至少一个语义标签的手势模型库。
14.根据权利要求13所述的***,该***包括手势生成器,该手势生成器包括所述涂写绘制器,所述涂写传播器以及所述手势模型制作器。
15.根据权利要求14所述的***,该***包括手势管理器,该手势管理器包括所述手势生成器以及包含动作和手势标签之间的链接的规则数据库。
16.根据权利要求15所述的***,该***包括识别模块,该识别模块包括模型匹配器,该模型匹配器用于比较当前帧的涂写与手势模型库中包含的已存储的手势模型。
17.根据权利要求16所述的***,其中,该模型匹配器向该规则数据库发送用于触发与手势标签关联的动作的查询。
18.一种计算机程序,该计算机程序包括存储于计算机的存储器和/或专用***的存储器中的指令,其中,所述计算机程序适合来执行前述权利要求1至10中任一项所要求的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP11171237.8 | 2011-06-23 | ||
EP11171237A EP2538372A1 (en) | 2011-06-23 | 2011-06-23 | Dynamic gesture recognition process and authoring system |
PCT/EP2012/061573 WO2012175447A1 (en) | 2011-06-23 | 2012-06-18 | Dynamic gesture recognition process and authoring system |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103649967A true CN103649967A (zh) | 2014-03-19 |
Family
ID=44928472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280031023.8A Pending CN103649967A (zh) | 2011-06-23 | 2012-06-18 | 动态手势识别方法和编辑*** |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140321750A1 (zh) |
EP (1) | EP2538372A1 (zh) |
JP (1) | JP2014523019A (zh) |
KR (1) | KR20140026629A (zh) |
CN (1) | CN103649967A (zh) |
WO (1) | WO2012175447A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI509466B (zh) * | 2014-05-23 | 2015-11-21 | Ind Tech Res Inst | 物件辨識方法與裝置 |
CN105095849A (zh) * | 2014-05-23 | 2015-11-25 | 财团法人工业技术研究院 | 对象识别方法与装置 |
CN105809144A (zh) * | 2016-03-24 | 2016-07-27 | 重庆邮电大学 | 一种采用动作切分的手势识别***和方法 |
CN111241971A (zh) * | 2020-01-06 | 2020-06-05 | 紫光云技术有限公司 | 一种三维跟踪的手势观测似然建模方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IN2013MU04097A (zh) | 2013-12-27 | 2015-08-07 | Tata Consultancy Services Ltd | |
US9589203B2 (en) * | 2014-03-24 | 2017-03-07 | Tata Consultancy Services Limited | Action based activity determination system and method |
US10102630B2 (en) * | 2015-04-21 | 2018-10-16 | Disney Enterprises, Inc. | Video object tagging using segmentation hierarchy |
CN109190461B (zh) * | 2018-07-23 | 2019-04-26 | 中南民族大学 | 一种基于手势关键点的动态手势识别方法和*** |
JP7392572B2 (ja) | 2020-05-21 | 2023-12-06 | 富士通株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020181773A1 (en) * | 2001-03-28 | 2002-12-05 | Nobuo Higaki | Gesture recognition system |
CN1489112A (zh) * | 2002-10-10 | 2004-04-14 | 北京中星微电子有限公司 | 运动图像检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003275134A1 (en) * | 2002-09-19 | 2004-04-08 | The Penn State Research Foundation | Prosody based audio/visual co-analysis for co-verbal gesture recognition |
US7672509B2 (en) | 2005-05-02 | 2010-03-02 | Regents Of The University Of Minnesota | Fast image and video data propagation and blending using intrinsic distances |
US20070165966A1 (en) * | 2005-07-15 | 2007-07-19 | Yissum Research Development Co. | Closed form method and system for matting a foreground object in an image having a background |
WO2008012808A2 (en) * | 2006-07-25 | 2008-01-31 | Humaneyes Technologies Ltd. | Interactive segmentation of images with single scribbles |
US9417700B2 (en) * | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
-
2011
- 2011-06-23 EP EP11171237A patent/EP2538372A1/en not_active Withdrawn
-
2012
- 2012-06-18 US US14/125,359 patent/US20140321750A1/en not_active Abandoned
- 2012-06-18 KR KR1020147001804A patent/KR20140026629A/ko not_active Application Discontinuation
- 2012-06-18 WO PCT/EP2012/061573 patent/WO2012175447A1/en active Application Filing
- 2012-06-18 CN CN201280031023.8A patent/CN103649967A/zh active Pending
- 2012-06-18 JP JP2014516295A patent/JP2014523019A/ja not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020181773A1 (en) * | 2001-03-28 | 2002-12-05 | Nobuo Higaki | Gesture recognition system |
CN1489112A (zh) * | 2002-10-10 | 2004-04-14 | 北京中星微电子有限公司 | 运动图像检测方法 |
Non-Patent Citations (3)
Title |
---|
BOGDAN LONESCU: "Dynamic Hand Gesture Recognition Using the Skeleton of the Hand", 《JOURNAL ON APPLIED SIGNAL PROCESSING》 * |
XUE BAI: "Geodesic Matting : A Framework for Fast Interactive Image and Video Segmentation and Matting", 《INTERNATIONAL JOURNAL OF COMPUTER VISION(INT J COMPUT VIS)》 * |
黄维尧: "基于人体行为分析的智能监控***设计与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI509466B (zh) * | 2014-05-23 | 2015-11-21 | Ind Tech Res Inst | 物件辨識方法與裝置 |
CN105095849A (zh) * | 2014-05-23 | 2015-11-25 | 财团法人工业技术研究院 | 对象识别方法与装置 |
US9400924B2 (en) | 2014-05-23 | 2016-07-26 | Industrial Technology Research Institute | Object recognition method and object recognition apparatus using the same |
CN105809144A (zh) * | 2016-03-24 | 2016-07-27 | 重庆邮电大学 | 一种采用动作切分的手势识别***和方法 |
CN105809144B (zh) * | 2016-03-24 | 2019-03-08 | 重庆邮电大学 | 一种采用动作切分的手势识别***和方法 |
CN111241971A (zh) * | 2020-01-06 | 2020-06-05 | 紫光云技术有限公司 | 一种三维跟踪的手势观测似然建模方法 |
Also Published As
Publication number | Publication date |
---|---|
US20140321750A1 (en) | 2014-10-30 |
KR20140026629A (ko) | 2014-03-05 |
JP2014523019A (ja) | 2014-09-08 |
EP2538372A1 (en) | 2012-12-26 |
WO2012175447A1 (en) | 2012-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103649967A (zh) | 动态手势识别方法和编辑*** | |
Karambakhsh et al. | Deep gesture interaction for augmented anatomy learning | |
CN100407798C (zh) | 三维几何建模***和方法 | |
Hagbi et al. | Shape recognition and pose estimation for mobile augmented reality | |
KR101135186B1 (ko) | 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체 | |
US8941588B2 (en) | Fast fingertip detection for initializing a vision-based hand tracker | |
WO2019029100A1 (zh) | 一种基于虚拟现实与增强现实的采矿操作多交互实现方法 | |
US20110254765A1 (en) | Remote text input using handwriting | |
JP6571108B2 (ja) | モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
WO2010006087A9 (en) | Process for providing and editing instructions, data, data structures, and algorithms in a computer system | |
JP6323202B2 (ja) | 映像を取得するシステム、方法及びプログラム | |
US11681409B2 (en) | Systems and methods for augmented or mixed reality writing | |
Fransen et al. | Using vision, acoustics, and natural language for disambiguation | |
Stefanidis et al. | 3D technologies and applications in sign language | |
CN108352084A (zh) | 用于在场景感知设备环境中导航对象的对象路径标识 | |
JP2014524170A5 (zh) | ||
Afif et al. | Vision-based tracking technology for augmented reality: a survey | |
Kim et al. | Interactive image segmentation using semi-transparent wearable glasses | |
KR20140001152A (ko) | 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템 및 그 방법 | |
Bhuyan et al. | Key Video Object Plane Selection by MPEG-7 Visual Shape Descriptor for Summarization and Recognition of Hand Gestures. | |
CN105279526B (zh) | 分割轨迹的方法和装置 | |
Li et al. | Kinect-based gesture recognition and its application in moocs recording system | |
US9129147B1 (en) | Optimal automatic capture of facial movements and expressions in video sequences | |
KR102540560B1 (ko) | 랜덤 포레스트를 사용한 손 자세의 계층적 추정 방법, 이를 수행하기 위한 기록 매체 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140319 |