CN103415825A - 用于手势识别的***和方法 - Google Patents

用于手势识别的***和方法 Download PDF

Info

Publication number
CN103415825A
CN103415825A CN2010800712608A CN201080071260A CN103415825A CN 103415825 A CN103415825 A CN 103415825A CN 2010800712608 A CN2010800712608 A CN 2010800712608A CN 201080071260 A CN201080071260 A CN 201080071260A CN 103415825 A CN103415825 A CN 103415825A
Authority
CN
China
Prior art keywords
gesture
model
geometric properties
sequence
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800712608A
Other languages
English (en)
Other versions
CN103415825B (zh
Inventor
周杰
程璞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN103415825A publication Critical patent/CN103415825A/zh
Application granted granted Critical
Publication of CN103415825B publication Critical patent/CN103415825B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • G06V10/85Markov-related models; Markov random fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种用于手势发现和识别的***和方法。也提供了用于使用用户的手的轨迹的隐马尔可夫模型(HMM)和几何特征分布来实现自适应手势识别的***和方法。该***和方法:获取特定用户的输入图像的序列(202),并且基于从用户的手的轨迹提取的手势模型和几何特征来从输入图像的序列识别特定用户的手势(204)。检测手势模型的状态转换点,并且基于所检测的状态转换点和手势的起点的相对位置来提取用户的手的轨迹的几何特征。该***和方法进一步基于自适应数据来适配特定用户的手势模型和几何特征分布(206)。

Description

用于手势识别的***和方法
技术领域
本公开总体上涉及计算机图形处理和手势识别***,并且更具体地涉及用于手势发现和识别的***和方法。也提供了使用用户的手的轨迹的隐马尔可夫模型(HMM)和几何特征分布来实现自适应手势识别的***和方法。
背景技术
手势识别因为其在手语识别、多模人与计算机交互、虚拟现实和机器人控制上的可能使用而受到越来越多的关注。大多数手势识别方法将所观察到的输入图像的序列与培训样本或模型匹配。输入序列被分类为其样本或模型与其最佳地匹配的手势类别。动态时间归整(DTW)、连续动态编程(CDP)、隐马尔可夫模型(HMM)和条件随机场(CRF)是手势分类器的示例。
HMM匹配是最常使用的用于手势识别的技术。然而,这种方法不能利用已经证明对于手势识别有效的手的轨迹的几何信息。在使用手的轨迹的先前的方法中,整体获取手的轨迹,并且作为用于识别的贝叶斯分类器的输入提取反映轨迹的形状的一些几何特征,诸如在x和y轴上的平均手的位置和所观察到的手的x和y位置的偏度等。然而,该方法不能精确地描述手的手势。
对于在线手势识别,手势发现,即,确定手势的起点和终点,是很重要但是困难的任务。存在用于手势发现的两种类型的手段:直接手段和间接手段。在直接手段中,首先计算诸如速度、加速度和轨迹曲线的运动参数,并且找出这些参数的突变以识别候选的手势边界。然而,这些方法不够精确。间接手段组合手势发现和手势识别。对于输入序列,间接手段找出当与培训样本或模型匹配时给出高识别分数的间隔,因此同时实现手势的时间分段和识别。然而,这些方法通常是耗时的,并且手势的一些误检可能出现。一种传统的手段提出使用修剪策略来改善精度以及***的速度。然而,该方法仅基于在手的轨迹的单点和单个模型状态之间的兼容性而修剪。如果当前观察的似然率小于阈值,则将修剪匹配假设。基于该简单策略的修剪分类器可能容易过度拟合培训数据。
因此,存在对于用于更精确和鲁棒的手势发现和识别的技术的需要。
而且,不同的用户手势通常在速度、起点和终点与转折点的角度等上不同。因此,很有意义的是,研究如何调整分类器以使得识别***适应于特定用户。
先前,仅一些研究者已经研究了自适应手势识别。一种现有技术的技术通过保留具有新的样本的HMM模型而实现了手势***的自适应。然而,该方法丢失了先前样本的信息,并且对于噪声数据敏感。另一种技术使用Baum-Welch方法的在线版本来实现手势分类器的在线学习和更新,并且开发了一种可以在线学些简单手势的***。然而,该方法的更新速度很低。
虽然仅存在对于自适应手势识别的几个研究,但是已经公布了用于自适应速度识别的许多方法。一种这样的研究通过最大后验概率(MAP)参数估计来更新HMM模型。通过使用参数的先前分布,需要较少的新数据来获取鲁棒参数估计和更新。该方法的缺陷是新的样本仅能够更新其对应的类别的HMM模型,因此降低了更新速度。最大似然率线性回归(MLLR)被广泛用于自适应速度识别。它使用新的样本来估计模型参数的一组线性变换,使得模型可以更好地匹配在变换后的新的样本。所有模型参数可以共享全局线性变换,或成簇为不同的组,其中,每组参数共享相同的线性变换。MLLR可以克服MAP的缺点,并且改善模型更新速度。
因此,存在用于实现自适应手势识别的技术的需要,使得使用这样的技术的***可以适应于特定用户。
发明内容
提供了一种用于手势发现(spotting)和识别的***和方法。本公开的所述***和方法通过下述方式实现了更精确和鲁棒的手势发现和识别:组合在输入图像的序列中的运动参数的突变的检测、隐马尔可夫模型(HMM)匹配和轨迹几何特征的提取。
根据本公开的一个方面,提供了一种用于发现由用户执行的手势的方法,所述方法包括:获取用户的输入图像的序列;将在输入图像的所述序列中的运动参数的突变检测为候选起点;将输入图像的所述序列与手势模型匹配;检测所述匹配的手势模型的状态转换点;基于所述检测的状态转换点和候选起点来提取所述用户的手的轨迹的几何特征;基于匹配的手势模型和所述提取的几何特征来确定所述手势的终点和手势类别;并且,从所述确定的所述手势的终点起反向跟踪通过图像,以确定所述手势的实际起点。
在本公开的另一个方面中,一种用于发现由用户执行的手势的***包括:图像捕获装置,其获取用户的输入图像的序列;对象检测器和***,其将在输入图像的所述序列中的运动参数的突变检测为候选起点;模型匹配器,其将输入图像的所述序列与手势模型匹配;事务检测器,其检测所述匹配的手势模型的状态转换点;特征提取器,其基于所述检测的状态转换点和候选起点来提取所述用户的手的轨迹的几何特征;以及,手势识别器,其基于匹配的手势模型和所述提取的几何特征来确定所述手势的终点和手势类别,并且,从所述确定的所述手势的终点起反向跟踪通过图像,以确定所述手势的实际起点。
提供了一种用于使用隐马尔可夫模型(HMM)和几何特征分布来实现自适应手势识别的、用于手势识别的***和方法。不同的用户的手势通常在速度、起点和终点与转折点的角度等上不同。本公开提供了一种用于手势识别的自适应的方法,使得所述***可以适应于特定用户。
根据本公开的一个方面,提供了一种用于识别由用户执行的手势的方法,所述方法包括:获取特定用户的输入图像的序列;并且,基于手势模型和从所述用户的手的轨迹提取的几何特征来从输入图像的所述序列识别所述特定用户的手势。
根据本公开的另一个方面,一种用于识别由用户执行的手势的***包括:图像捕获装置,其获取特定用户的输入图像的序列;以及,手势识别器,其基于手势模型和从所述用户的手的轨迹提取的几何特征来从输入图像的所述序列识别所述特定用户的手势。
附图说明
从下面要结合附图阅读的优选实施例的详细描述中,本发明的这些和/或其他方面、特征和优点将被描述或变得清楚。
在附图中,其中,贯穿视图,相似的附图标号表示类似的元件:
图1是根据本公开的一个方面的用于手势发现和识别的***的示例性图示;
图2是根据本公开的一个方面的用于手势识别的示例性方法的流程图;
图3是根据本公开的一个方面的用于手势发现和识别的示例性方法的流程图;
图4图示从分段的由用户执行的轨迹“0”提取的状态转换点的示例;
图5是根据本公开的一个方面的、用于使用隐马尔可夫模型(HMM)和几何特征分布来培训手势识别***的示例性方法的流程图;以及
图6是根据本公开的一个方面的、用于将手势识别***适应于特定用户的示例性方法的流程图。
应当明白,附图用于例示本公开的概念的目的,并且不必然是用于例示本公开的唯一可能的配置。
具体实施方式
应当明白,可以以各种形式的硬件、软件或其组合来实现在附图中所示的元素。优选的是,在可以包括处理器、存储器和输入/输出接口的一个或多个适当编程的通用装置上以硬件和软件的组合来实现这些元素。
本说明书说明了本公开的原理。因此,可以明白,本领域内的技术人员能够设计各种布置,该各种布置虽然未在此明确地描述或示出,但是体现本公开的原理,并且被包括在本公开的范围内。
在此描述的所有示例和条件语言意欲用于教学目的,以帮助读者明白本公开的原理和由发明人对于进一步发展本领域贡献的思想,并且要被解释为不限于这样的具体描述的示例和条件。
而且,列举本公开的原理、方面和实施例的在此的所有陈述及其具体示例意欲涵盖其结构和功能等同物。另外,意欲这样的等同物包括当前已知的等同物以及在未来发展的等同物,即,执行相同功能开发的任何元素,而与结构无关。
因此,例如,本领域内的技术人员可以明白,在此呈现的框图表示体现本公开的原理的说明性电路的概念视图。类似地,可以明白,任何流程图、流图、状态转换图和伪码等表示可以以计算机可读介质实质上表示并且因此被计算机或处理器执行的各种处理,而不论这样的计算机或处理器是否被明确地示出。
通过使用专用硬件以及能够与适当的软件相关联地执行软件的硬件来提供在附图中所示的各个元素的功能。当被处理器提供时,该功能可以被单个专用处理器、被单个共享处理器或被多个单独处理器提供,该多个单独处理器的一些可以被共享。而且,术语“处理器”或“控制器”的明确的使用不应当被解释为唯一地指示能够执行软件的硬件,并且可以隐含地无限制地包括数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)和非易失性存储器。
也可以包括其他传统和/或定制的硬件。类似地,在附图中所示的任何开关仅是概念性的。可以通过程序逻辑的操作、通过专用逻辑、通过程序控制和专用逻辑的交互或者甚至手动地执行它们的功能,实现者能够选择具体技术,从上下文更具体地明白这一点。
在其权利要求中,作为用于执行指定功能的手段表达的任何元素意欲涵盖执行那个功能的任何方式,包括例如:a)执行那个功能的电路元件的组合,或者,b)与适当电路组合的以任何形式的软件,该任何形式因此包括固件或微码等,该适当电路用于执行那个软件以执行该功能。由这样的权利要求限定的本公开在于下述事实:由各种描述的手段提供的功能以权利要求引用的方式被组合和置于一起。因此认为,可以提供那些功能的任何手段等同于在此所示的那些。
提供了用于实现手势发现和识别的***和方法,其组合在输入图像的序列中的运动参数的突变的检测、隐马尔可夫模型(HMM)匹配和轨迹几何特征的提取。在给出捕获的视频图像的输入序列的情况下,诸如异常速度和加速度的运动参数的突变或陡峭的轨迹曲线将被检测为由用户执行的手势的候选起点/终点。从这些候选起点,手的轨迹将匹配到每一个手势类别的HMM模型,即,手势模型。手的轨迹的几何特征以及单个观察分类器用于修剪匹配假设。
对于输入序列,所检测的兴趣点与HMM模型匹配,并且通过维特比算法或函数来找出其中HMM模型的状态改变的点。这些点被称为状态转换点。基于状态转换点和手势的起点的相对位置来从手势模型提取几何特征。这些几何特征比传统方法更精确地描述了手的手势。状态转换点通常对应于其中轨迹开始改变的点,并且,基于这些点和起点的相对位置来提取特征可以很好地反映手势的形状的特性,这与传统方法相反,传统方法整体获取手的轨迹,并且基于手的轨迹的统计属性来提取几何特征。
此外,当几何特征的提取被包含到HMM模型的匹配内时,容易利用所提取的几何特征来用于修剪,并且帮助识别手势的类型。例如,如果在状态转换点处提取的几何特征的似然率小于阈值,则将修剪该匹配假设。即,如果在某个帧处确定将该帧与HMM模型的任何状态匹配的成本太高,则本公开的***和方法推论给定的模型未良好地匹配输入序列,并且然后它停止将随后的帧匹配到状态。
用于修剪的几何特征的包含比仅使用单个观察更精确和鲁棒。当基于HMM模型和在手的轨迹和手势类别之间的几何特征分布的组合计算的模型匹配分数大于阈值时,将手势分段和识别。运动参数的突变的检测、HMM模型匹配和轨迹几何特征提取的该组合胜过现有的手势发现方法。
现在参见附图,在图1中示出根据本公开的一个实施例的示例性***部件。可以提供图像捕获装置102来捕获执行手势的用户的图像。应当明白,图像捕获装置可以是任何已知的图像捕获装置,并且可以包括数字照像机、数字摄像机、网络摄像头等。所捕获的图像被输入到处理装置104,诸如计算机。该计算机被实现在各种已知计算机平台的任何一种上,该各种已知计算机平台具有硬件,例如,一个或多个中央处理单元(CPU)、诸如随机存取存储器(RAM)和/或只读存储器(ROM)的存储器106与输入/输出(I/O)用户接口108,该输入/输出(I/O)用户接口108例如是键盘、光标控制装置(例如,鼠标或游戏棒)和显示装置。计算机平台也包括操作***和微指令代码。在此所述的各种处理和功能可以或者是微指令代码的一部分或经由操作***执行的软件应用程序的一部分(或其组合)。在一个实施例中,在可以被诸如处理装置104的任何适当机器上载和执行的程序存储装置上有形地包含软件应用程序。另外,各种其他***装置可以通过诸如并行端口、串行端口或通用串行总线(USB)的各种接口和总线结构,而连接到计算机平台。其他***装置可以包括另外的存储装置110和打印机(未示出)。
软件程序包括在存储器106中存储的手势识别模块112,其也被称为手势识别器,用于在所捕获的图像的序列中识别由用户执行的手势。手势识别模块112包括对象检测器和***114,对象检测器和***114检测感兴趣的对象,例如用户的手,并且通过捕获的图像的序列来跟踪感兴趣的对象。模型匹配器116被提供来将所检测和跟踪的对象匹配到在HMM模型118的数据库中存储的至少一个HMM模型。每一个手势类型具有与其相关联的HMM模型。输入序列与对应于不同手势类型的所有HMM模型匹配,以找到哪种手势类型最佳地匹配输入序列。例如,在给出作为来自捕获的视频的每一个帧的特征的序列的输入序列和作为状态的序列的手势模型的情况下,模型匹配器116找到在每一个帧和每一个状态之间的对应的关系。模型匹配器116可以使用维特比算法或函数、前向算法或函数、前向-反向算法或函数等来实现匹配。
手势识别模块112进一步包括转换检测器120,用于检测其中HMM模型的状态改变的点。这些点被称为状态转换点,并且通过转换检测器120除了别的之外使用的维特比算法或函数被找到或检测。特征提取器122基于状态转换点和手势的起点的相对位置而提取几何特征。
手势识别模块112进一步包括修剪算法或函数124,修剪算法或函数124也被称为修剪器,其用于减少被执行来找出匹配的HMM模型的计算的数量,由此加速手势发现和检测处理。例如,在给出作为来自捕获的视频的每一个帧的特征的序列的输入序列和作为状态的序列的手势模型的情况下,应当找到在每一个帧和每一个状态之间的对应关系。然而,如果在某个帧处修剪算法或函数124发现将该帧与任何状态匹配的成本太高,则修剪算法或函数124停止将随后的帧匹配到状态,并且推论给定的模型未良好地匹配输入序列。
另外,手势识别模块112包括最大似然率线性回归(MLLR)函数,该函数用于适配HMM模型,并且递增地学习每个手势类别的特定用户的几何特征分布。通过同时更新HMM模型和几何特征分布,手势识别***可以迅速地适应于用户。
图2是根据本公开的一个方面的用于手势识别的示例性方法的流程图。初始,处理装置104获取由图像捕获装置102捕获的输入图像的序列(步骤202)。手势识别模块112然后使用HMM模型和几何特征来执行手势识别(步骤204)。下面与图3-4相关联地进一步描述步骤204。在步骤206中,手势识别模块112适应特定用户的每个手势类别的HMM模型和几何特征分布。下面与图5-6相关地进一步描述步骤206。
图3是根据本公开的一个方面的、用于手势发现和识别的示例性方法的流程图。
1.1候选起点检测
初始,在步骤302中,图像捕获装置102捕获图像的输入序列。在步骤304中,对象检测器和***114检测在输入序列中的候选起点,并且贯穿该序列而跟踪候选起点。诸如手的位置和速度的特征用于表示在输入序列的每一个帧中检测的手。通过用户的面部的位置和宽度来规格化这些特征。
象直接手势发现手段那样,作为在输入序列中的移动参数的突变而检测候选起点。具有异常速度或陡峭轨迹曲线的点被检测为候选起点。通常存在使用该方法的许多误肯定检测。使用这些点来作为手势边界的直接手势发现方法不很精确和鲁棒。本公开的方法使用不同的策略。将手的轨迹从这些候选起点起匹配到每一个手势类别的HMM模型,因此,该方法可以组合直接和间接手势发现方法的优点。
1.2HMM模型匹配
在步骤306中,输入图像的序列经由模型匹配器116匹配到HMM模型118,如下所述。
设Q={Q1,Q2,...}是特征向量的连续序列,其中,Qj是从输入图像的输入帧j提取的特征向量。诸如手的位置和速度的特征用于表示在每一个帧中检测的手。通过执行手势的用户的面部的位置和宽度来规格化这些特征。设是具有用于手势g的m+1个状态的左右HMM模型。每个状态与给出每一个观察向量Qj的似然率的高斯观察密度相关联。Baum-Welch算法或函数将用于培训HMM模型。根据轨迹长度来指定每一个模型的状态的数量,通常对于Baum-Welch算法或函数如此进行。转换概率被固定以简化学习任务,即,在每一个转换处,模型等同可能地移动到下一个状态或保持在同一状态出。
将ak,i表示为从状态k向状态i转换的转换概率,并且,将表示为当与模型状态
Figure BDA0000374016940000084
匹配时的特征向量Qj的似然率。设C是使用在1.1部分中描述的方法检测的候选起点集。是特殊状态,其中
Figure BDA0000374016940000086
因此,HMM模型匹配仅在这些候选起点处开始。将V(i,j)表示为当将第一j输入特征向量(Q1,...,Qj)与第一i+1模型状态
Figure BDA0000374016940000087
匹配时的最大概率。然后,我们具有
V ( i , j ) = p ( Q j | M i g ) · max k ( a k , i V ( k , j - 1 ) ) - - - ( 2 )
设在(Q1,...,Qj)和
Figure BDA0000374016940000089
之间的最大匹配分数SH(i,j)是V(i,j)的对数:
SH(i,j)=logV(i,j)   (3)
基于在等式2中的属性,使用动态编程(DP)来有效地计算最大匹配分数。使用通过(i,j)来加索引的表格来实现DP。当从输入帧提取新的特征向量Qn时,计算与帧n对应的表格的片断,并且在单元(i,n)处存储两个信息:1)SH(i,n)的值,其中,i=0,…,m;以及,2)前导子k,用于最小化等式2,其中,SH(i,n)是在模型和在帧i处结束的输入序列之间的最佳匹配的分数,并且k是前一个帧在最佳匹配中对应的状态。SH(m,n)对应于在模型和在帧n处结束的输入序列之间的最佳对齐。可以使用反向跟踪来获得最佳动态编程(DP)路径,即,HMM模型的最佳状态序列。现有的间接方法通常使用SH(m,n)以实现手势发现,即,如果SH(m,n)大于阈值,则将手势终点检测为帧n,并且,可以通过反向跟踪最佳DP路径来找出手势起点。
为了改善***的速度和精度,传统***使用修剪策略,其中,它们基于当前观察的似然率来修剪:如果
Figure BDA0000374016940000091
并且其中τ(i)是模型状态i的阈值并且是从培训数据学习的,则将修剪单元(i,n),并且,将拒绝所有通过它的路径。然而,该简单的修剪策略不够精确。
1.3几何特征提取
在本公开的方法中,几何特征的提取被包含到HMM模型匹配过程内。对于输入序列,经由转换检测器120在步骤308中确定HMM模型的状态序列。检测其中HMM的状态改变的点。图4给出了从分段的轨迹“0”提取的状态转换点的一些示例,该轨迹被用户执行,并且被图像捕获装置102捕获。黑点是状态转换点。可以看出,状态转换点的位置对于所有轨迹类似,因此,在步骤310经由特征提取器122基于状态转换点和手势的起点的相对位置来提取几何特征,如下所述。
将手势的起点表示为(x0,y0),在转换点(xt,yt)处提取的几何特征包括xt-x0、yt-y0
Figure BDA0000374016940000092
这些简单特征可以良好地描述手的轨迹的几何信息。
对于每一个手势类别,与其相关联的HMM模型用于提取其培训样本的几何特征。假定该几何特征符合高斯分布。从培训样本学习几何特征的分布。然后,每个手势类别与HMM模型及其几何特征分布相关联。将手势g的几何特征分布表示为
Figure BDA0000374016940000093
其中,m与的状态编号Mg相关,并且
Figure BDA0000374016940000094
是在其中HMM模型的状态从i-1向i改变的点处提取的几何特征的分布。当几何特征的提取被包含到HMM模型匹配过程中时,容易利用几何特征来进行修剪。例如,如果帧F是状态转换帧,则基于帧F来提取几何特征。如果提取的几何特征的概率低于阈值,则该匹配将被剪除,即,模型匹配器116将停止将随后的帧与模型的状态匹配,并且,将选择至少一个第二手势模型来匹配。现在在下面与等式(4)相关地描述修改过程。
在步骤312中,如果满足下面的条件,则修剪函数或修剪器124将剪除单元(i,j):
Figure BDA0000374016940000101
其中,pre(i)是在HMM模型匹配期间状态i的前导子,Gj是在点i处提取的几何特征,t(i)是从培训样本学习的阈值,并且如在1.2部分中定义
Figure BDA0000374016940000102
和τ(i)。
在步骤314中,通过手势识别模块112来计算在(Q1,...,Qn)和
Figure BDA0000374016940000104
之间的总的匹配分数:
S ( m , n ) = α × S H ( m . n ) + ( 1 - α ) × ( Σ i = 1 m log F i g ( G j ( i ) ) ) - - - ( 5 )
其中,α是系数,SH(m,n)是HMM匹配分数,并且Gj(i)是在其中HMM状态从i-1改变为i的点处提取的几何特征。象间接方法那样实现手势的时间分段,即,如果S(m,n)大于阈值,则将手势终点检测为帧n(步骤216),并且,可以通过反向跟踪最佳DP路径来找出手势起点(步骤218)。通过使用表达式4和等式5,该方法可以组合手的轨迹的HMM和几何特征以用于手势发现和识别,因此改善***的精度。
在另一个实施例中,提供了使用隐马尔可夫模型(HMM)和几何特征分布来实现自适应手势识别的、用于手势识别的***和方法。本公开的该***和方法组合用户的手的轨迹的几何特征和HMM模型以用于手势识别。对于输入序列,跟踪诸如手的被检测的感兴趣的对象,并且将其与HMM模型匹配。通过维特比算法或函数、前向算法或函数、前向-反向算法或函数等来找出其中HMM模型的状态改变的点。这些点被称为状态转换点。基于状态转换点和手势的起点的相对位置来提取几何特征。在给出适配数据,即,特定用户执行的手势的情况下,使用最大似然率线性回归(MLLR)方法来适应HMM模型,并且递增地学习特定用户的每一个手势类别的几何特征分布。通过同时更新HMM模型和几何特征分布,手势识别***可以迅速地适应于特定用户。
2.1组合HMM和轨迹几何特征的手势识别
参见图5,图示了根据本公开的一个方面的、用于使用隐马尔可夫模型(HMM)和几何特征分布来培训手势识别***的示例性方法的流程图。
初始,在步骤502中,图像捕获装置102获取或捕获图像的输入序列。在步骤504中,对象检测器和***114在输入序列中检测感兴趣的对象,例如,用户的手,并且通过该序列来跟踪对象。诸如手的位置和速度的特征用于表示在输入序列的每一个帧中检测到的手。通过用户的面部的位置和宽度来规格化这些特征。在给出面部中心位置(xf,yf)、面部w的宽度和在图像的帧上的手位置(xh,yh)的情况下,规格化的手的位置是xhn=(xh-xf)/w、yhn=(yh-yf)/w,即,绝对坐标改变为相对于面部中心的相对坐标。
具有高斯观察密度的左右HMM模型用于在步骤506中将检测的手与手势模型匹配,并且确定手势类别。例如,在给出作为来自捕获的视频的每一个帧的特征的序列的输入序列和作为状态的序列的手势模型的情况下,模型匹配器116经由例如维特比算法或函数、前向算法或函数或者前向-反向算法或函数来找出在每一个帧和每一个状态之间的对应关系。
接下来,在步骤508中,对于输入序列,转换检测器120使用维特比算法或函数来检测匹配的HMM模型的状态序列。检测其中HMM模型的状态改变的点。在步骤510,经由特征提取器122基于状态转换点和手势的起点的相对位置来提取几何特征。将手势的起点表示为(x0,y0),在转换点(xt,yt)处提取的几何特征包括xt-x0、yt-y0
Figure BDA0000374016940000111
在给出输入序列的情况下,在所有状态转换点处提取的特征形成输入序列的几何特征。这些简单特征可以良好地描述手的轨迹的几何信息。
对于每一个手势类别,培训左右HMM模型,并且该HMM模型用于提取其培训样本的几何特征。假定几何特征符合高斯分布。从培训样本学习几何特征的分布。然后,在步骤512,将每一个手势类别与HMM模型及其几何特征分布相关联,并且在步骤514,存储相关联的HMM模型和几何特征分布。
将与第i手势类别相关联的HMM模型和几何特征分布分别表示为λi和qi。为了将分段的手的轨迹O={O1,O2.-OT}(即,检测和跟踪的对象)与第i手势类别匹配,使用λi来提取几何特征G={G1,G2,...GN}。通过手势识别模块112计算匹配分数如下:
S=α×logp(O|λi)+(1-α)×logqi(G)   (6)
其中,α是系数,并且p(O|λi)是在给出HMM模型λi的情况下的手的轨迹O的概率。可以使用前向-反向算法或函数来计算p(O|λi)输入的手的轨迹将被分类为其匹配分数最高的手势类别。因此,使用等式6,本公开的***和方法可以组合用户的手的轨迹(即,检测和跟踪的对象)的几何特征和HMM模型以用于手势识别。
2.2手势识别的适配
图6是根据本公开的一个方面的用于将手势识别***适应于特定用户的示例性方法的流程图。在给出适配数据(即,特定用户执行的手势)的情况下,本公开的***和方法使用最大似然率线性回归(MLLR)函数来适应于HMM模型,并且递增地学习用于每一个手势类别的几何特征分布。
初始,在步骤602中,图像捕获装置102捕获图像的输入序列。在步骤604中,对象检测器和***114检测在输入序列中的感兴趣的对象,并且贯穿该序列跟踪该对象。在步骤606,使用具有高斯观察密度的左右HMM模型来将手势类别建模。在步骤608中,检索与所确定的手势类别相关联的几何特征分布。
接下来,在步骤610中,使用最大似然率线性回归(MLLR)函数将HMM模型适应于特定用户。最大似然率线性回归(MLLR)被广泛用于自适应语音识别。它使用新的样本来估计模型参数的一组线性变换,使得该模型可以更好地匹配在变换后的新的样本。在标准MLLR手段中,根据
μ - = Wξ - - - ( 7 )
来更新高斯密度的平均向量,其中,W是n×(n+1)矩阵(并且,n是观察特征向量的维度),并且,ξ是扩展平均向量。ξT=[1,μ1,...,μn]。假定适配数据O是一系列T观察:O=o1-oT。为了在等式7中计算W,要最大化的目标函数是产生适配数据的似然率:
F ( O | λ ) = Σ θ F ( O , θ | λ ) - - - ( 8 )
其中,θ是产生O的可能状态序列,λ是一组模型参数。通过最大化辅助函数
Q ( λ , λ - ) = Σ θ F ( O , θ | λ ) log F ( O , θ | λ - ) - - - ( 9 )
其中,λ是当前的一组模型参数,并且
Figure BDA0000374016940000132
是重新估计的一组模型参数,也最大化了在等式8中的目标函数。可以使用最大期望(EM)算法或函数来解决相对于W最大化等式9。
然后,在步骤612中,***通过下述方式来递增地学***均和协方差矩阵。将手势g的当前几何特征分布表示为
Figure BDA0000374016940000133
其中,Fi g是在其中HMM模型的状态从i-1改变为i的点处提取的几何特征的分布。假定Fi g的平均和协方差矩阵分别是
Figure BDA0000374016940000134
Figure BDA0000374016940000135
在给出手势g的适配数据的情况下,从该数据提取几何特征,并且使得在其中状态从i-1改变为i的适配数据的点处提取的几何特征形成集X={x1,...xk},其中,xi是从手势g的第i个适配样本提取的特征,并且k是用于手势g的适配样本的数量。然后,更新几何特征分布如下:
Figure BDA0000374016940000139
其中,
Figure BDA0000374016940000137
分别是Fi g的重新估计的平均和协方差矩阵。
通过同时更新HMM模型和几何特征分布,手势识别***可以快速地适应于用户。然后在存储装置110中对于特定用户存储适配的HMM模型和学习的几何特征分布(步骤614)。
已经描述了用于手势识别的***和方法。手势模型(例如,HMM模型)和几何特征分布用于执行手势识别。基于适配数据(即,特定用户执行的手势),更新HMM模型和几何特征分布两者。以这种方式,***可以适应于特定用户。
虽然已经在此详细示出和描述了包含本公开的教导的实施例,但是本领域内的技术人员可以容易设计包含这些教导的许多其他变化的实施例。在已经描述了用于手势识别的***和方法的优选实施例(它们意欲是说明性的而不是限定性的)的情况下,可以注意到,本领域内的技术人员可以根据上面的教导进行修改和变化。因此,应当明白,可以在由所附的权利要求概述的本公开的范围内公开的本公开的特定实施例中进行改变。

Claims (30)

1.一种用于识别由用户执行的手势的方法,所述方法包括:
获取特定用户的输入图像的序列(202);并且
基于从用户的手的轨迹提取的手势模型和几何特征来从输入图像的序列识别特定用户的手势(204)。
2.根据权利要求1所述的方法,其中,所述手势模型是隐马尔可夫模型(HMM)。
3.根据权利要求1所述的方法,其中,所述识别步骤进一步包括:
获取用户的输入图像的序列(302);
将在输入图像的所述序列中的运动参数的突变检测为候选起点(304);
将输入图像的所述序列与手势模型匹配(306);
检测所述匹配的手势模型的状态转换点(308);
基于所述检测的状态转换点和候选起点来提取所述用户手的轨迹的几何特征(310);
基于匹配的手势模型和所述提取的几何特征来确定所述手势的终点和手势类别(316);并且,
从所述确定的所述手势的终点起反向跟踪通过图像,以确定所述手势的实际起点(318)。
4.根据权利要求3所述的方法,其中,所述确定所述手势的所述终点进一步包括:
确定输入图像的所述序列的每一个帧的手势模型匹配分数(314);并且
将具有比第一预定阈值大的所述手势模型匹配分数的所述帧选择为包含所述手势的所述终点的所述帧(316)。
5.根据权利要求4所述的方法,进一步包括:基于所述提取的几何特征和确定的手势类别来修剪输入图像的所述序列的至少一个帧的所述手势模型匹配分数(312)。
6.根据权利要求4所述的方法,进一步包括:如果所述提取的几何特征在帧中出现的可能性小于第二预定阈值,则选择第二手势模型来用于匹配。
7.根据权利要求6所述的方法,其中,所述第二预定阈值是基于所述确定的手势类别。
8.根据权利要求3所述的方法,其中,通过动态编程(DP)功能来执行反向跟踪通过所述图像。
9.根据权利要求1所述的方法,其中,所述识别步骤进一步包括:
在输入图像的所述序列的每一个帧中检测和跟踪至少一个对象(504);并且
匹配所述检测和跟踪的至少一个对象的特征以确定所述手势模型(506)。
10.根据权利要求9所述的方法,其中,所述识别步骤进一步包括:
检测所述手势模型的状态转换点(508);并且
基于所述检测的状态转换点和所述手势的起点的相对位置来提取所述用户的所述手的轨迹的所述几何特征(510)。
11.根据权利要求10所述的方法,其中,所述识别步骤进一步包括:
使用所述手势模型和提取的几何特征来计算用于每一个手势类别的所述检测和跟踪的至少一个对象的匹配分数;并且
将所述检测和跟踪的至少一个对象分类为具有最高匹配分数的所述手势类别。
12.根据权利要求1所述的方法,进一步包括:基于由所述特定用户执行的手势来适应所述特定用户的所述手势模型和几何特征分布(206)。
13.根据权利要求12所述的方法,其中,使用最大似然率线性回归(MLLR)函数来使用来自所述特定用户的手势样本更新所述手势模型(610)。
14.根据权利要求13所述的方法,进一步包括:通过重新估计在预定数量的自适应样本上的所述几何特征分布的平均和协方差矩阵来递增地学习用于所述特定用户的所述几何特征分布(612)。
15.根据权利要求14所述的方法,进一步包括:存储用于所述特定用户的所述更新的手势模型和学习的几何特征分布(614)。
16.一种用于识别由用户执行的手势的***(100),包括:
图像捕获装置(102),其获取特定用户的输入图像的序列;以及
手势识别器(112),其基于从所述用户的手的轨迹提取的手势模型和几何特征来从输入图像的序列识别特定用户的手势。
17.根据权利要求16所述的***(100),其中,所述手势模型是隐马尔可夫模型(HMM)。
18.根据权利要求16所述的***(100),进一步包括:
对象检测器和***(114),其将在输入图像的所述序列中的运动参数的突变检测为候选起点;
模型匹配器(116),其将输入图像的所述序列与手势模型匹配;
事务检测器(120),其检测所述匹配的手势模型的状态转换点;
特征提取器(122),其基于所述检测的状态转换点和候选起点来提取所述用户手的轨迹的几何特征;
所述手势识别器(112)基于匹配的手势模型和所述提取的几何特征来确定所述手势的终点和手势类别,并且,从所述确定的所述手势的终点起反向跟踪通过图像,以确定所述手势的实际起点。
19.根据权利要求18所述的***(100),其中,所述手势识别器(112)被进一步配置来确定输入图像的所述序列的每一个帧的手势模型匹配分数,并且将具有比第一预定阈值大的所述手势模型匹配分数的所述帧选择为包含所述手势的所述终点的所述帧。
20.根据权利要求19所述的***(100),进一步包括修剪器(124),其基于所述提取的几何特征和确定的手势类别来拒绝输入图像的所述序列的至少一个帧的所述手势模型匹配分数。
21.根据权利要求19所述的***(100),其中,所述模型匹配器(116)被进一步配置来如果所述提取的几何特征在帧中出现的可能性小于第二预定阈值,则选择第二手势模型来用于匹配。
22.根据权利要求21所述的***(100),其中,所述第二预定阈值是基于所述确定的手势类别。
23.根据权利要求18所述的***(100),其中,手势识别器(112)包括用于反向跟踪通过所述图像的动态编程(DP)函数。
24.根据权利要求16所述的***(100),进一步包括:
对象检测器和***(114),其在输入图像的所述序列的每一个帧中检测和跟踪至少一个对象;以及
模型匹配器(116),其匹配所述检测和跟踪的至少一个对象的特征以确定所述手势模型。
25.根据权利要求24所述的***(100),进一步包括:
转换检测器(120),其检测所述手势模型的状态转换点;以及
特征提取器(122),其基于所述检测的状态转换点和所述手势的起点的相对位置来提取所述用户的所述手的轨迹的所述几何特征。
26.根据权利要求25所述的***(100),其中,所述手势识别器(112)进一步被配置来使用所述手势模型和提取的几何特征来计算用于每一个手势类别的所述检测和跟踪的至少一个对象的匹配分数,并且将所述检测和跟踪的至少一个对象分类为具有最高匹配分数的所述手势类别。
27.根据权利要求16所述的***(100),其中,所述手势识别器(112)被进一步配置来基于由所述特定用户执行的手势来适应所述特定用户的所述手势模型和几何特征分布。
28.根据权利要求27所述的***(100),其中,所述手势识别器(112)包括最大似然率线性回归(MLLR)函数,用于使用来自所述特定用户的手势样本更新所述手势模型。
29.根据权利要求28所述的***(100),其中,所述手势识别器(112)被进一步配置来通过重新估计在预定数量的自适应样本上的所述几何特征分布的平均和协方差矩阵而递增地学习用于所述特定用户的所述几何特征分布。
30.根据权利要求29所述的***(100),其中,所述手势识别器(122)进一步被配置来在存储装置(110)中存储用于所述特定用户的所述更新的手势模型和学习的几何特征分布。
CN201080071260.8A 2010-12-29 2010-12-29 用于手势识别的***和方法 Active CN103415825B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/002191 WO2012088626A1 (en) 2010-12-29 2010-12-29 System and method for gesture recognition

Publications (2)

Publication Number Publication Date
CN103415825A true CN103415825A (zh) 2013-11-27
CN103415825B CN103415825B (zh) 2016-06-01

Family

ID=46382146

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080071260.8A Active CN103415825B (zh) 2010-12-29 2010-12-29 用于手势识别的***和方法

Country Status (5)

Country Link
US (1) US9323337B2 (zh)
EP (1) EP2659335A4 (zh)
KR (1) KR20130141657A (zh)
CN (1) CN103415825B (zh)
WO (1) WO2012088626A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766038A (zh) * 2014-01-02 2015-07-08 株式会社理光 手掌开合动作识别方法和装置
CN104915003A (zh) * 2015-05-29 2015-09-16 深圳奥比中光科技有限公司 一种体感控制参数调整的方法、体感交互***及电子设备
CN105279526A (zh) * 2014-06-13 2016-01-27 佳能株式会社 分割轨迹的方法和装置
CN106155294A (zh) * 2015-04-15 2016-11-23 中兴通讯股份有限公司 一种处理账单的方法及装置
CN106502401A (zh) * 2016-10-31 2017-03-15 宇龙计算机通信科技(深圳)有限公司 一种图像控制方法及装置
CN103839047B (zh) * 2013-12-30 2017-12-29 华为技术有限公司 一种人体运动轨迹的识别方法及装置
CN107690651A (zh) * 2015-04-16 2018-02-13 罗伯特·博世有限公司 用于自动化手语识别的***和方法
CN107787472A (zh) * 2015-08-04 2018-03-09 谷歌有限责任公司 用于虚拟现实中的凝视交互的悬停行为
CN109710076A (zh) * 2018-12-30 2019-05-03 厦门盈趣科技股份有限公司 一种电路板自动检测方法及装置
CN109858380A (zh) * 2019-01-04 2019-06-07 广州大学 可扩展手势识别方法、装置、***、手势识别终端和介质
CN111433766A (zh) * 2017-12-29 2020-07-17 三星电子株式会社 用于对时间序列数据进行分类的方法和***
CN111625087A (zh) * 2020-04-28 2020-09-04 中南民族大学 一种手势采集与识别***
US11978438B1 (en) * 2021-03-29 2024-05-07 Amazon Technologies, Inc. Machine learning model updating

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9268405B2 (en) * 2012-06-15 2016-02-23 International Business Machines Corporation Adaptive gesture-based method, system and computer program product for preventing and rehabilitating an injury
CN105164700B (zh) 2012-10-11 2019-12-24 开文公司 使用概率模型在视觉数据中检测对象
US10877780B2 (en) 2012-10-15 2020-12-29 Famous Industries, Inc. Visibility detection using gesture fingerprinting
US10908929B2 (en) 2012-10-15 2021-02-02 Famous Industries, Inc. Human versus bot detection using gesture fingerprinting
US9501171B1 (en) * 2012-10-15 2016-11-22 Famous Industries, Inc. Gesture fingerprinting
US11386257B2 (en) 2012-10-15 2022-07-12 Amaze Software, Inc. Efficient manipulation of surfaces in multi-dimensional space using energy agents
CN103971109A (zh) * 2013-02-04 2014-08-06 佳能株式会社 用于提取特征以及用于识别轨迹的方法和设备
JP6051991B2 (ja) * 2013-03-21 2016-12-27 富士通株式会社 信号処理装置、信号処理方法、及び信号処理プログラム
JP2014182748A (ja) * 2013-03-21 2014-09-29 Fujitsu Ltd 信号処理装置、信号処理方法、及び信号処理プログラム
US9952042B2 (en) 2013-07-12 2018-04-24 Magic Leap, Inc. Method and system for identifying a user location
TWI506461B (zh) * 2013-07-16 2015-11-01 Univ Nat Taiwan Science Tech 人體動作的辨識方法與裝置
KR102190484B1 (ko) * 2013-11-11 2020-12-11 삼성전자주식회사 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치
TW201543268A (zh) * 2014-01-07 2015-11-16 Thomson Licensing 用於使用手勢***體播放之系統及方法
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6434532B2 (ja) * 2014-07-02 2018-12-05 コヴィディエン リミテッド パートナーシップ 気管を検出するためのシステム
US20160078287A1 (en) 2014-08-29 2016-03-17 Konica Minola Laboratory U.S.A., Inc. Method and system of temporal segmentation for gesture analysis
US10083233B2 (en) * 2014-09-09 2018-09-25 Microsoft Technology Licensing, Llc Video processing for motor task analysis
KR101596600B1 (ko) * 2014-11-28 2016-02-23 계명대학교 산학협력단 사용자 패턴 기반의 동작 인식 보정 장치 및 그 방법
US20160377447A1 (en) * 2015-06-25 2016-12-29 International Business Machines Corporation Cognitive needs-based trip planning
CN105005769B (zh) * 2015-07-08 2018-05-15 山东大学 一种基于深度信息的手语识别方法
US10019637B2 (en) * 2015-11-13 2018-07-10 Honda Motor Co., Ltd. Method and system for moving object detection with single camera
EP3381016A4 (en) * 2015-11-26 2019-06-12 Sportlogiq Inc. SYSTEMS AND METHODS FOR OBJECT TRACKING AND LOCATION IN VIDEOS WITH ADAPTIVE IMAGE REPRESENTATION
CN106200964B (zh) * 2016-07-06 2018-10-26 浙江大学 一种虚拟现实中基于移动轨迹识别进行人机交互的方法
CN108369643B (zh) * 2016-07-20 2022-05-13 杭州凌感科技有限公司 用于3d手部骨架跟踪的方法和***
CN106920092A (zh) * 2016-12-23 2017-07-04 阿里巴巴集团控股有限公司 一种虚拟资源分配方法、客户端及服务器
WO2019016764A1 (en) * 2017-07-21 2019-01-24 Sage Senses Inc. METHOD, SYSTEM AND APPARATUS FOR RECOGNIZING GESTURES
EP3707693A1 (en) * 2017-11-08 2020-09-16 Signall Technologies Zrt Computer vision based sign language interpreter
US10671355B2 (en) * 2018-01-21 2020-06-02 Microsoft Technology Licensing, Llc. Code completion with machine learning
CN108388882B (zh) * 2018-03-16 2021-09-21 中山大学 基于全局-局部rgb-d多模态的手势识别方法
US10990358B2 (en) 2018-03-29 2021-04-27 Microsoft Technology Licensing, Llc. Code completion for overloaded methods
US11645576B2 (en) 2018-04-29 2023-05-09 Microsoft Technology Licensing, Llc. Code completion for languages with hierarchical structures
CN109446994B (zh) * 2018-10-30 2020-10-30 北京达佳互联信息技术有限公司 手势关键点检测方法、装置、电子设备及存储介质
CN111382599A (zh) * 2018-12-27 2020-07-07 北京搜狗科技发展有限公司 一种图像处理方法、装置和电子设备
CN111831101A (zh) * 2019-04-22 2020-10-27 四川大学 一种基于Leap Motion的多特征动态手势识别方法
US11307667B2 (en) * 2019-06-03 2022-04-19 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for facilitating accessible virtual education
CN114515146B (zh) * 2020-11-17 2024-03-22 北京机械设备研究所 基于电学测量的智能手势识别方法及***
CN113610124B (zh) * 2021-07-23 2024-04-19 中国地质大学(武汉) 基于马尔可夫链蒙特卡洛的人手轨迹生成方法和***
CN117932713A (zh) * 2024-03-18 2024-04-26 中南民族大学 云原生cad软件手势交互几何建模方法、***、装置及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020118880A1 (en) * 2000-11-02 2002-08-29 Che-Bin Liu System and method for gesture interface
CN101763515A (zh) * 2009-09-23 2010-06-30 中国科学院自动化研究所 一种基于计算机视觉的实时手势交互方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
WO2003071410A2 (en) * 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7366645B2 (en) * 2002-05-06 2008-04-29 Jezekiel Ben-Arie Method of recognition of human motion, vector sequences and speech
US7184591B2 (en) * 2003-05-21 2007-02-27 Microsoft Corporation Systems and methods for adaptive handwriting recognition
US7983478B2 (en) * 2007-08-10 2011-07-19 Microsoft Corporation Hidden markov model based handwriting/calligraphy generation
JP5406188B2 (ja) * 2007-08-20 2014-02-05 クアルコム,インコーポレイテッド 高度な語彙外単語の拒否
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
WO2010011923A1 (en) * 2008-07-24 2010-01-28 Gesturetek, Inc. Enhanced detection of circular engagement gesture
ES2648049T3 (es) * 2008-07-25 2017-12-28 Qualcomm Incorporated Detección mejorada de gesto ondulatorio
FR2950713A1 (fr) * 2009-09-29 2011-04-01 Movea Sa Systeme et procede de reconnaissance de gestes
US8702485B2 (en) * 2010-06-11 2014-04-22 Harmonix Music Systems, Inc. Dance game and tutorial

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020118880A1 (en) * 2000-11-02 2002-08-29 Che-Bin Liu System and method for gesture interface
CN101763515A (zh) * 2009-09-23 2010-06-30 中国科学院自动化研究所 一种基于计算机视觉的实时手势交互方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839047B (zh) * 2013-12-30 2017-12-29 华为技术有限公司 一种人体运动轨迹的识别方法及装置
CN104766038A (zh) * 2014-01-02 2015-07-08 株式会社理光 手掌开合动作识别方法和装置
CN104766038B (zh) * 2014-01-02 2018-05-18 株式会社理光 手掌开合动作识别方法和装置
CN105279526B (zh) * 2014-06-13 2019-11-29 佳能株式会社 分割轨迹的方法和装置
CN105279526A (zh) * 2014-06-13 2016-01-27 佳能株式会社 分割轨迹的方法和装置
CN106155294A (zh) * 2015-04-15 2016-11-23 中兴通讯股份有限公司 一种处理账单的方法及装置
CN107690651A (zh) * 2015-04-16 2018-02-13 罗伯特·博世有限公司 用于自动化手语识别的***和方法
CN104915003A (zh) * 2015-05-29 2015-09-16 深圳奥比中光科技有限公司 一种体感控制参数调整的方法、体感交互***及电子设备
CN107787472A (zh) * 2015-08-04 2018-03-09 谷歌有限责任公司 用于虚拟现实中的凝视交互的悬停行为
CN106502401A (zh) * 2016-10-31 2017-03-15 宇龙计算机通信科技(深圳)有限公司 一种图像控制方法及装置
CN106502401B (zh) * 2016-10-31 2020-01-10 宇龙计算机通信科技(深圳)有限公司 一种图像控制方法及装置
CN111433766A (zh) * 2017-12-29 2020-07-17 三星电子株式会社 用于对时间序列数据进行分类的方法和***
CN109710076A (zh) * 2018-12-30 2019-05-03 厦门盈趣科技股份有限公司 一种电路板自动检测方法及装置
CN109710076B (zh) * 2018-12-30 2022-05-03 厦门盈趣科技股份有限公司 一种电路板自动检测方法及装置
CN109858380A (zh) * 2019-01-04 2019-06-07 广州大学 可扩展手势识别方法、装置、***、手势识别终端和介质
CN111625087A (zh) * 2020-04-28 2020-09-04 中南民族大学 一种手势采集与识别***
US11978438B1 (en) * 2021-03-29 2024-05-07 Amazon Technologies, Inc. Machine learning model updating

Also Published As

Publication number Publication date
US20130294651A1 (en) 2013-11-07
KR20130141657A (ko) 2013-12-26
EP2659335A4 (en) 2016-05-18
US9323337B2 (en) 2016-04-26
CN103415825B (zh) 2016-06-01
WO2012088626A1 (en) 2012-07-05
EP2659335A1 (en) 2013-11-06

Similar Documents

Publication Publication Date Title
CN103415825A (zh) 用于手势识别的***和方法
CN108664924B (zh) 一种基于卷积神经网络的多标签物体识别方法
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
Rios-Cabrera et al. Discriminatively trained templates for 3d object detection: A real time scalable approach
CN110197502B (zh) 一种基于身份再识别的多目标跟踪方法及***
CN109446927B (zh) 基于先验知识的双人交互行为识别方法
US9639746B2 (en) Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
JP7414901B2 (ja) 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
CN103793926B (zh) 基于样本重选择的目标跟踪方法
JP6003492B2 (ja) 文字認識装置及びプログラム
CN105980963A (zh) 使用手势***体回放的***和方法
CN109871891B (zh) 一种物体识别方法、装置和存储介质
CN110728694A (zh) 一种基于持续学习的长时视觉目标跟踪方法
KR102387886B1 (ko) 인공지능 학습을 위한 클린 라벨 데이터 정제 방법 및 장치
CN109685104B (zh) 一种识别模型的确定方法和装置
KR101299031B1 (ko) 손 제스처 인식 장치 및 그 방법
CN104376308A (zh) 一种基于多任务学习的人体动作识别方法
CN110032948B (zh) 一种基于交互时序信息的草图手势识别方法
Muzakir et al. Model for Identification and Prediction of Leaf Patterns: Preliminary Study for Improvement
CN116935411A (zh) 一种基于字符分解和重构的部首级古文字识别方法
CN109992106B (zh) 手势轨迹识别方法、电子设备及存储介质
Ali et al. Attendance System Optimization through Deep Learning Face Recognition
CN115188031A (zh) 指纹识别方法、计算机程序产品、存储介质及电子设备
CN115222047A (zh) 一种模型训练方法、装置、设备及存储介质
CN110059180B (zh) 文章作者身份识别及评估模型训练方法、装置及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant