CN115223239A - 一种手势识别方法、***、计算机设备以及可读存储介质 - Google Patents

一种手势识别方法、***、计算机设备以及可读存储介质 Download PDF

Info

Publication number
CN115223239A
CN115223239A CN202210717218.3A CN202210717218A CN115223239A CN 115223239 A CN115223239 A CN 115223239A CN 202210717218 A CN202210717218 A CN 202210717218A CN 115223239 A CN115223239 A CN 115223239A
Authority
CN
China
Prior art keywords
gesture
feature
input
layer
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210717218.3A
Other languages
English (en)
Other versions
CN115223239B (zh
Inventor
曾庆田
宋戈
王通
段华
曲祥雯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN202210717218.3A priority Critical patent/CN115223239B/zh
Publication of CN115223239A publication Critical patent/CN115223239A/zh
Application granted granted Critical
Publication of CN115223239B publication Critical patent/CN115223239B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于人机交互技术领域,具体公开了一种手势识别方法、***、计算机设备以及可读存储介质。该方法通过创建一个基于MLP和CNN的手势识别模型,便于使用手势图片以及手部关键点特征数据作为混合输入,使得机器学习模型能够从手势图片以及手部关键点数据中获取和识别特征,本发明模型为通过输入手势图像和对应手部关键点特征数据来识别手势的多输入融合深度网络模型,该手势识别模型充分结合了MLP和CNN两种不同网络以及手势图片和手部关键点特征数据两种数据的优点,以提高手势识别网络的整体性能,有效地解决了当前手势识别中精度低、实时性差、鲁棒性差的问题,在模型中同时输入手势图片和手部关键点特征数据,获得了较高的手势识别精度。

Description

一种手势识别方法、***、计算机设备以及可读存储介质
技术领域
本发明属于手势识别技术领域,涉及一种手势识别方法、***、计算机设备以及可读存储介质。
背景技术
手势识别是人机交互和计算机视觉领域研究的热点,如虚拟现实、智能控制、娱乐游戏以及手语翻译等。手势识别应用领域的一个基本特征是实时性,因此,手势识别***必须在用户输入手势的情况下提供实时结果。然而,由于设备条件、光照效果和背景的复杂程度不同,手势识别仍具挑战性。为了更好地实现人机交互,手势识别算法应该在各种光照强度、背景等复杂环境中具有良好的实时识别能力。目前手势识别方法主要分为两大类:
一是基于传感器的手势识别方法。此类方法的优点是手势识别不会被不同的背景分散注意力,但会造成佩戴笨重、不灵活且成本高的问题,违背了人机自然交互的初衷。
二是基于视觉的手势识别方法,此类方法需要通过摄像头获取手势的图像或视频。相比基于传感器的手势识别,基于视觉的手势识别***,能够使用较低成本的摄像头可以让用户更自然地与计算机设备进行交互。在基于视觉的手势识别方法中,最常用的手势提取方法包括肤色检测、背景减法、边界建模、轮廓、手势分割以及手形估计等。
然而,这些传统的识别方法在进行手势识别过程中存在一些不足之处,如算法的鲁棒性不强,模型对数据集的依赖性大,样本数据受环境等因素影响,例如光照变化、背景问题、距离范围和多手势等问题,导致手势特征不明显,神经网络模型识别率低。
可见,基于视觉的手势识别方法,手势图像的预处理成为一个需要解决的问题。
随着深度学习算法的飞速发展,如YOLO(you only look once)(Redmon等,2016;Redmon和Farhadi,2017,2018)、SSD(single shot multibox detector)(Liu等,2016)、RCNN(region convolutional neural network)(Girshick等,2014)和Faster R-CNN(Ren等,2015)等算法在目标检测和分类问题中取得了较高的准确率,然而这些算法往往通过设计更深层次的网络结构来提取更多的深度特征,对硬件的计算能力和存储能力的要求很高,这些检测模型普遍存在模型较大和检测时间长等问题,难以在嵌入式设备中普及,也不能满足许多场合中对于实时性的要求。
发明内容
本发明的目的之一在于提出一种基于MLP和CNN的多输入融合深度网络的手势识别方法,以提高各种光照强度、背景等复杂环境下手势识别的准确性。
本发明为了实现上述目的,采用如下技术方案:
一种基于MLP和CNN的多输入融合深度网络的手势识别方法,包括如下步骤:
步骤1.获取原始手势图像数据,并构建原始手势图像数据集;
步骤2.对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
步骤3.搭建多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
其中,两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
步骤4.训练及测试多输入融合深度网络模型;
利用步骤2中训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
步骤5.对于待识别的手势图像,提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别,得到识别结果。
此外,本发明还提出了一种与上述基于MLP和CNN的多输入融合深度网络的手势识别方法相对应的基于MLP和CNN的多输入融合深度网络的手势识别***,其技术方案如下:
一种基于MLP和CNN的多输入融合深度网络的手势识别***,包括:
图像采集模块,用于获取原始手势图像数据并构建原始手势图像数据集;
数据预处理模块,用于对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
模型搭建及训练测试模块,用于搭建、训练以及测试多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
其中,两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
利用训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
预测模块,对于待识别的手势图像,用于提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别得到识别结果。
此外,本发明还提出了一种与上述多输入融合深度网络的手势识别方法相对应的计算机设备,该计算机设备包括存储器和一个或多个处理器。
所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,用于实现上面述及的基于MLP和CNN的多输入融合深度网络的手势识别方法。
此外,本发明还提出了一种与上述多输入融合深度网络的手势识别方法相对应的计算机可读存储介质,其上存储有程序;该程序被处理器执行时,
用于实现上面述及的基于MLP和CNN的多输入融合深度网络的手势识别方法。
本发明具有如下优点:
如上所述,本发明述及了一种多输入融合深度网络的手势识别方法,该方法通过创建一个基于MLP和CNN的手势识别模型,便于使用手势图片以及手部关键点特征数据作为混合输入,使得机器学习模型能够从手势图片以及手部关键点数据中获取和识别特征,本发明手势识别模型为通过输入手势图像和一些手部关键点特征数据来识别手势的多输入融合深度网络模型,该手势识别模型充分结合了MLP和CNN两种不同网络的优点,以提高手势识别网络的整体性能,有效地解决了当前手势识别中精度低、实时性差、鲁棒性差的问题,通过在模型中同时输入手势图片和手部关键点特征数据,获得了较高的手势识别精度。从应用对象看,本发明方法可以应用在单目相机采集的图像,所需设备简单方便,应用场景更为广泛。
附图说明
图1为本发明实施例中基于MLP和CNN双分支特征融合的手势识别方法的流程图;
图2为本发明实施例中基于MLP和CNN双分支特征融合的手势识别方法的模型框图;
图3为本发明实施例中提取的21个手部关键点位置分布图;
图4为本发明实施例中提取的手势图像示意图;
图5为本发明实施例中特征融合模块进行特征融合的示意图。
具体实施方式
下面结合附图以及具体实施方式对本发明作进一步详细说明:
本实施例述及了一种基于MLP和CNN的多输入融合深度网络的手势识别方法,以解决当前手势识别中存在的精度低、实时性差、鲁棒性差的技术问题。
如图1所示,基于MLP和CNN的多输入融合深度网络的手势识别方法,包括如下步骤:
步骤1.获取原始手势图像数据,并构建原始手势图像数据集。
本实施例中所使用的原始手势图像数据集从实际人机交互场景中收集而来。
在实际生活场景中使用摄像头获取不同光照强度以及不同背景下捕捉的手势图像,剔除模糊不清的手势图像,将收集好的手势图像进行分类打标签,建立原始手势图像数据集。
本实施例中总共收集了12种不同的手势,即类别总共有12种,例如握拳手势、伸大拇指手势、OK手势、五指全部伸开手势等等,代表了平时常用到的几种手势。
其中,每种手势包含1000张不同背景下的图片。
基于此,本实施例中建立了一个拥有12000张手势图片的原始手势图像数据集。
当然,本实施例中标签的数量或类别的数量并不局限于以上12种,例如,还可以根据适用场景的不同灵活增加一些手势,即扩充标签或类别的数量。
步骤2.对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据。
表1示出了从一幅原始手势图像中提取21个手部关键点的特征数据的过程。
其中,手部关键点的特征数据的提取方法如下:
首先利用目标检测框架(如openpose,mediapipe),从原始手势图像中实时准确地检测识别手部的21个手部关键点像素坐标,并输出每个关键点的像素坐标,如表1第2行所示。
识别出的21个手部关键点的具***置如图3所示,各个手部关键点分别用0-20替代。
其中,0表示手腕,1表示拇指的CMC关节位,2表示拇指的MCP关节位,3表示拇指的IP关节位,4表示拇指的TIP关节位,5表示食指的MCP关节位,6表示食指的PIP关节位,7表示食指的DIP关节位,8表示食指的TIP关节位,9表示中指的MCP关节位,10表示中指的PIP关节位,11表示中指的DIP关节位,12表示中指的TIP关节位,13表示无名指的MCP关节位,14表示无名指的PIP关节位,15表示无名指的DIP关节位,16表示无名指的TIP关节位,17表示小指的MCP关节位,18表示小指的PIP关节位,19表示小指的DIP关节位,20表示小指的TIP关节位。
由于同一手势在手势图像中的不同位置、不同距离等因素影响下,得到的像素坐标是不同的,因此为了消除此影响,对原始手势图像采用欧几里得距离归一化处理。
欧几里得距离归一化处理的具体步骤如下:
定义手腕位置对应的手部关键点为基准手部关键点并将其设为原点,其余20个手部关键点与原点间的横、纵轴方向的距离绝对值作为对应手部关键点的新坐标,如表2第3行所示。
分别计算各个手部关键点的新坐标到原点坐标的欧几里得距离,如公式(1)所示。
Figure BDA0003709022110000051
其中,i=0,1,…,19,20。
ρi表示第i个手部关键点的新坐标(xi,yi)与原点坐标(x0,y0)之间的欧几里得距离。
计算出来的各个手部关键点的ρi值如表1中第4行所示。
根据公式(1)中得到的ρi,由公式(2)进一步归一化处理。
ki=(ρi-μ)/σ (2)
其中,ki为手部第i个手部关键点经过欧几里得归一化处理后的数值,即手部关键点特征数据,各个手部关键点的ρi值如表1中第5行所示。
μ、σ分别表示21个手部关键点经欧式距离处理后的均值和标准差。
μ、σ的计算方式如公式(3)、公式(4)所示。
Figure BDA0003709022110000052
Figure BDA0003709022110000053
其中,由于手部关键点的数量为21个,因此此处n取值为20。
表1
手部关键点 0 1 2 18 19 20
原始坐标 [74,322] [140,312] [190,278] [60,142] [54,110] [47,82]
[0,0] [66,-10] [116,-44] [-14,-180] [-20,-212] [-27,-240]
0.00 66.75 124.07 180.54 212.94 241.51
k<sub>i</sub> -2.74 -1.75 -0.90 -0.06 0.42 0.84
通过欧几里得距离归一化处理,将相同手势在不同位置、不同距离下的关键点像素坐标转换为无单位的数值,使得数据标准统一化,提高了数据可比性。
接着从同一幅原始手势图像中提取手势图片数据,提取过程如下:
利用图像分割显示目标检测框架(如openpose,mediapipe)检测的手势关键点及轮廓,然后进行膨胀操作,接着去除杂乱背景,并将手势图片调整为统一尺寸大小,例如64×64。
通过以上过程完成了对手势图片的提取,提取后的手势图像如图4所示。
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据。
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;其中训练数据集用于模型的训练,测试数据集用于模型的性能测试。
本实施例中的手势识别方法,用户无需佩戴任何辅助性设备或者其他标记物,将目标检测框架识别出来的手部关键点特征数据和对应手势图片数据结合起来,以获得更多更准确的特征信息,本发明方法在不同的人机交互场景下具有良好的识别鲁棒性和实时性。
步骤3.搭建多输入融合深度网络模型MIFD-Net(Multi-input fusion deepnetwork)。如图2所示,多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块。
本实施例中特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络。
在设计的MIFD-Net模型中,使用CNN提取手势图片特征信息的共包含九层网络:
本实施例CNN分支网络的输入是预处理后的手势图片,输入尺寸大小为64×64×3,包含一个输入层、三个卷积层、三个最大池化层以及两个全连接层。
定义三个卷积层分别为第一卷积层Conv1、第二卷积层Conv2以及第三卷积层Conv3。
定义三个最大池化层分别为第一最大池化层Pool1、第二最大池化层Pool2以及第三最大池化层Pool3,两个全连接层分别为第一全连接层Fc1以及第二全连接层Fc2。
输入层、第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第一全连接层以及第二全连接层依次连接。
第一卷积层Conv1、第二卷积层Conv2以及第三卷积层Conv3分别包含16、32、64个滤波器,第一卷积层、第二卷积层以及第三卷积层的卷积核的大小均为3×3。
其中,第一卷积层、第二卷积层以及第三卷积层后均设置一个ReLU激活函数。
第一最大池化层、第二最大池化层以及第三最大池化层采用最大池化,设置步长为2。
第一全连接层Fc1的神经元个数为32。
第二全连接层Fc2的神经元个数为类别的数量,在本实施例中例如为12个。
以上CNN分支网络的设计,可保证本实施例在针对预处理后的手势图像,所设计的CNN分支网络能够在保证准确率的同时拥有着更少的模型参数量,降低了计算量。
本实施例设计的MIFD-Net模型中,使用MLP提取手部关键点特征信息。
其中,MLP分支网络由三层全连接层构成。
定义三层全连接层分别为第三全连接层Fc3、第四全连接层Fc4以及第五全连接层Fc5;则第三全连接层、第四全连接层以及第五全连接层依次连接。
第三全连接层Fc3作为MLP分支网络的输入层,包含21个神经元,输入为预处理后得到的21个手部关键点特征数据;第四全连接层Fc4为隐藏层,包含16个神经元。
第五全连接层Fc5为输出层,第五全连接层中神经元的个数设置为类别的数量。在本实施例中类别的数量设定为12个,此处第五全连接层中神经元的数量也为12个。
本实施例中使用Relu函数作为各层全连接层之后的激活函数。
两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连。
本实施例设计的MIFD-Net模型中,分支网络MLP提取的特征向量Tout包含较多的手部关键点位置信息,分支网络CNN提取的特征向量Jout包含较多的语义信息。
图5展示了本发明设计的自适应权重特征融合模块C1。
特征融合模块对两个分支网络提取的特征信息合理融合,引入自适应的特征权重ω1、ω2,使模型根据数据的特征分布来自行决定权重参数,在特征融合模块以不同的权重来融合特征。
融合的手势特征Cf使用公式(5)计算得来:
Figure BDA0003709022110000071
其中,
Figure BDA0003709022110000072
代表Sum Fusion融合方式,权重ω1、ω2由公式(6)得到。
Figure BDA0003709022110000073
其中,i=1,2,j=1,2,ωi为归一化的权重,且∑ωi=1,αi为初始化的权重参数,将αi添加到优化器更新的参数中,使αi向损失函数最小化的方向进行优化。
MIFD-Net中的特征融合模块引入了两个可训练的权重参数ω1、ω2
伴随着迭代过程的进行,网络的Loss逐渐趋于稳定,ω1、ω2的值逐渐适应其特征,充分考虑不同特征间的互补信息,获得更好的融合效果,模型泛化能力增强。
最终经过特征融合模块融合后的手势特征信息经过两层全连接层完成最终的分类,分类模块包括两个全连接层,分别为第六全连接层Fc6以及第七全连接层Fc7。
第六全连接层Fc6包含32个神经元,第七全连接层Fc7作为输出层,使用Softmax分类函数,神经元的个数设置为类别的数量,在本实施例中例如为12个。
本实施例中模型的具体参数如表2所示,其中:
Input1为手势图片,Input2为对应的手势关键点的特征数据,Flatten层将数据展平。
一般将Flatten层放置在卷积层和全连接层中间,起到一个转换的作用。
卷积层的输出结果是二维张量,经过卷积层后会输出多个特征图,需要将这些特征图转换成向量序列的形式,才能与全连接层一一对应。
表2
卷积核大小 卷积核个数 步长 输出大小 参数数量
Input1 - - - 64×64×3 -
Conv1 3×3 16 1 64×64×16 448
Pool1 2×2 - 2 32×32×16 -
Conv2 3×3 32 1 32×32×32 4640
Pool2 2×2 - 2 16×16×32 -
Conv3 3×3 64 1 16×16×64 18496
Pool3 2×2 - 2 8×8×64 -
Flatten 4096 -
FC1 - - - 32 131104
FC2 - - - 12 396
Input2 - - - 21
FC3 - - - 21 462
FC4 - - - 16 352
FC5 - - - 12 204
C1 - - - 12 2
FC6 - - - 32 416
FC7 - - - 12 396
本发明搭建的多输入融合深度网络模型具有如下优势:
使用手势图片和对应的手部关键点特征作为混合输入,使用CNN和MLP分支网络模型分别提取其特征,通过进一步特征融合,从而获取更多信息,进而提高模型的准确率。
本发明同时采用手势图片数据以及手部关键点特征数据,是因为不同数据的表现方式不一样,看待事物的角度也会不一样,因此存在一些互补(所以比单特征更优秀)的现象。
其中,手部关键点特征数据中包含更精确的手部关键点位置信息,手势图片数据中则包含了更全面的手势全局信息,MIFD-Net联合手部关键点信息和图像视觉信息共同推理,通过使用自适应的权重,合理利用了不同信息的间的互补性,使得模型更具有普适性。
步骤4.训练及测试多输入融合深度网络模型。
利用步骤2中训练数据集中的样本数据训练多输入融合深度网络。
多输入融合深度网络的训练过程如下:
将步骤2得到的21个手部关键点的特征数据作为分支网络MLP的输入,经过隐藏层进行特征提取,在输出层得到一个第一特征向量,标记为特征向量Tout
将步骤2得到的手势图片数据作为分支网络CNN的输入,经过CNN网络提取特征后,得到一个第二特征向量,标记为输出特征向量Jout
为了获得更多特征信息增加识别准确率,本发明通过特征融合模块C1使用自适应特征融合的方法将两个分支模型的输出向量组合起来,然后进一步经过全连接神经网络使用softmax分类器进行预测分类。
在训练过程中使用了Dropout防止过拟合,使得模型收敛速度加快,本实施例中使用了分类交叉熵损失函数,计算方法如公式(2)所示:
Figure BDA0003709022110000091
其中,m是手势类别的数量,
Figure BDA0003709022110000092
表示模型的预测输出,yi表示真实的标签。
本发明将模型训练的epoch设置为200,batchsize设置为32。该模型使用了Adam优化器进行训练,其中初始学习率设置为0.001,decay设置为1e-3/200。
根据预测输出与对应的分类标签进行计算,得出分类损失函数Loss值。
本发明通过使用EarlyStopping方法来监测模型训练的精度,在网络模型训练的过程中,记录每一次epoch的验证集Loss值,并记录其中的最小Loss值。
当连续20次Epoch验证集Loss值一直大于这个最小Loss值时,则认为验证集Loss值不再下降,停止模型训练更新,取整个训练过程中最小Loss值的epoch训练结果作为最终的模型权值,进而保存最优的模型以及权重参数。
从保存的模型权重中读取参数,得到训练好的多输入融合深度网络模型。
在训练过程中,本发明方法将原始手势图像数据集按照训练集:测试集:验证集=7:2:1的比例切分,在训练过程中epoch设置为200,batchsize设置为32。
该模型使用了Adam优化器进行训练,初始学***均准确率可以达到99.65%。
步骤5.对于待识别的手势图像,提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别,得到识别结果。
为了验证本发明方法的有效性,本发明还进行了如下实验。
为了方便比较不同模型,将数据集按训练集:测试集:验证集=7:2:1的比例切分,保持输入到各模型的数据一致,在训练完模型后,本发明对模型的效果进行评价。
本发明采用的模型评价指标有准确率(Accuracy)、召回率(Recall)、精确率(Precision)、F值(F-Measure)。其中,各个模型评价指标的计算方法为:
Figure BDA0003709022110000093
Figure BDA0003709022110000094
Figure BDA0003709022110000095
Figure BDA0003709022110000101
其中,TP表示正例样本被标记为正例;FP表示假例样本被标记为正例;TN表示假例样本被标记为假例;FN表示正例样本被标记为假例。
针对21个手部关键点特征提取,本实施例将MLP分支网络模型与其他处理方式进行了对比。其中,手部关键点数据在不同模型下的实验结果对比如表3所示。
表3
名称 精确率 召回率 F值 准确率
Logistic回归模型 0.96 0.96 0.96 0.9634
支持向量机模型 0.97 0.96 0.96 0.9631
1D-CNN模型 0.97 0.97 0.97 0.9705
本发明MLP模型 0.98 0.97 0.97 0.9725
由上述表3对比能够看出,本实施例采用的MLP获得了更好的分类性能。
此外,在针对预处理后的手势图像,本实施例与其他方式进行了对比,三种CNN模型在图片预处理后的数据集下的性能表现对比结果如表4所示。
表4
Figure BDA0003709022110000102
由表4能够看出,CNN网络在保证准确率的同时拥有着更少的模型参数量。
此外,本实施例还比较了MIFD-Net模型与其他用于手势识别的CNN的模型复杂度指标,即Parameters、FLOPs,如表5所示。其中,表5为手势识别模型复杂度对比。
模型的Parameters和FLOPs是衡量模型大小的主要指标,Parameters衡量神经网络中所包含参数的数量,参数数量越小,模型体积越小,更容易部署。
每个卷积层的参数量可以用公式(8)计算。
Parasconv=n×(k×k×c+1) (8)
全连接层的参数量可用公式(9)计算。
Parasfc=n×(c+1) (9)
其中,Parasconv、Parasfc分别代表卷积层、全连接层的参数量。
FLOPs衡量神经网络中前向传播的运算次数,FLOPs越小,则计算速度越快。每个卷积层的FLOPs可以用公式(10)计算。
FLsconv=2×h×w×(k×k×c+1)×n (10)
全连接层的参数量FLsfc可用公式(11)计算。
FLsfc=(2c-1)×n (11)
其中,FLsconv、FLsfc分别代表代表卷积层、全连接层的FLOPs。
卷积核的大小为k×k,c、n分别代表该层输入特征图和输出特征图的通道数。
表5
模型 Parameters FLOPs
MIFD-Net 0.157×10<sup>6</sup> 0.84×10<sup>6</sup>
MobileNet V2 2.3×10<sup>6</sup> 320×10<sup>6</sup>
AlexNet 62×10<sup>6</sup> 700×106
GoogleNet 7×10<sup>6</sup> 1510×10<sup>6</sup>
VGG16 138×10<sup>6</sup> 15500×10<sup>6</sup>
SqueezeNet 0.7×10<sup>6</sup> 830×10<sup>6</sup>
InceptionV3 23.9×10<sup>6</sup> 2850×10<sup>6</sup>
由上述表5能够看出,本实施例中的MIFD-Net的模型参数量和FLOPs更少。
通过在本实施例自建的12种手势共12000张图片的数据集中可以达到99.65%的准确率,识别距离最远可达到500cm,识别速度为32帧/秒。
在公开数据集The NUS hand posture datasets II中,本发明算法达到了98.89%的准确率。经过测试,在实际应用场景中可以达到很好的实时准确率。
本发明方法通过图像采集模块检测到手势后,经过设计的手势预处理模型,得到手部关键点数据和消除背景后的手势图像数据,送入MIFD-Net模型,得到预测结果。
本发明方法能够减少复杂背景的干扰,在强光、复杂背景中取得了良好的实时效果,实现在摄像头不同背景、不同距离下的实时手势识别。
本发明述及的多输入融合深度网络的手势识别方法,应用于静态手势识别中。
基于同样的发明构思,本发明实施例还提供了一种用于实现上述基于MLP和CNN的多输入融合深度网络的手势识别方法的识别***,其包括如下几个模块:
图像采集模块,用于获取原始手势图像数据并构建原始手势图像数据集;
数据预处理模块,用于对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
模型搭建及训练测试模块,用于搭建、训练以及测试多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
其中,两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
利用训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
预测模块,对于待识别的手势图像,用于提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别得到识别结果。
需要说明的是,基于MLP和CNN的多输入融合深度网络的手势识别***中,各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
本发明提出的MIFD-Net模型在保持精度的同时较少了模型参数,因此,在各种情况下,包括户外活动,可以使用配备该***的便携式终端轻松识别常用手势。
此外,本发明还提出了一种用于实现上述多输入融合深度网络的手势识别方法的计算机设备。该计算机设备包括存储器和一个或多个处理器。
其中,在存储器中存储有可执行代码,处理器执行可执行代码时,用于实现上述多输入融合深度网络的手势识别方法。
本实施例中计算机设备为任意具备数据数据处理能力的设备或装置,此处不再赘述。
此外,本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,用于实现上述多输入融合深度网络的手势识别方法。
该计算机可读存储介质可以是任意具备数据处理能力的设备或装置的内部存储单元,例如硬盘或内存,也可以是任意具备数据处理能力的设备的外部存储设备,例如设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。
当然,以上说明仅仅为本发明的较佳实施例,本发明并不限于列举上述实施例,应当说明的是,任何熟悉本领域的技术人员在本说明书的教导下,所做出的所有等同替代、明显变形形式,均落在本说明书的实质范围之内,理应受到本发明的保护。

Claims (10)

1.一种基于MLP和CNN的多输入融合深度网络的手势识别方法,其特征在于,
包括如下步骤:
步骤1.获取原始手势图像数据,并构建原始手势图像数据集;
步骤2.对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
步骤3.搭建多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
步骤4.训练及测试多输入融合深度网络模型;
利用步骤2中训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
步骤5.对于待识别的手势图像,提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别,得到识别结果。
2.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤1具体为:
获取不同光照强度以及不同背景下捕捉的手势图像,剔除其中模糊不清的手势图像,将收集好的手势图像进行分类打标签,建立原始手势图像数据集。
3.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤2中,手部关键点的特征数据的提取方法如下:
首先利用目标检测框架从原始手势图像中检测识别手部的21个手部关键点像素坐标;
对原始数据集采用欧几里得距离归一化处理,具体步骤如下:
定义手腕位置对应的手部关键点为基准手部关键点并将其设为原点,其余20个手部关键点与原点间的横、纵轴方向的距离绝对值作为对应手部关键点的新坐标;
分别计算各个手部关键点的新坐标到原点坐标的欧几里得距离,如公式(1)所示;
Figure FDA0003709022100000021
其中,i=0,1,…,19,20;
ρi表示第i个手部关键点的新坐标(xi,yi)与原点坐标(x0,y0)之间的欧几里得距离;
根据公式(1)中得到的ρi,由公式(2)进一步归一化处理;
ki=(ρi-μ)/σ (2)
其中,ki为手部第i个手部关键点经过欧几里得归一化处理后的数值,即手部关键点特征数据;μ、σ分别表示21个手部关键点经欧式距离处理后的均值和标准差;
μ、σ的计算方式如公式(3)、公式(4)所示;
Figure FDA0003709022100000022
Figure FDA0003709022100000023
其中,n取值为20。
4.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤2中,手势图片数据的提取过程如下:
利用图像分割技术显示目标检测框架检测的手势关键点及轮廓,然后进行膨胀操作,接着去除杂乱背景,并将图片调整为统一尺寸大小,完成对原始手势图像的预处理。
5.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤3中,CNN分支网络的结构如下:
CNN分支网络包含九层网络结构,分别是一个输入层、三个卷积层、三个最大池化层以及两个全连接层;其中,各层网络结构的连接结构分别如下:
定义三个卷积层分别为第一卷积层、第二卷积层以及第三卷积层;
定义三个最大池化层分别为第一最大池化层、第二最大池化层以及第三最大池化层;
定义两个全连接层分别为第一全连接层以及第二全连接层;
其中,输入层、第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第一全连接层以及第二全连接层依次连接;
输入层的输入为预处理后的手势图片,输入尺寸大小为64×64×3;
第一卷积层、第二卷积层以及第三卷积层分别包含16、32、64个滤波器,第一卷积层、第二卷积层以及第三卷积层的卷积核的大小均为3×3;
第一最大池化层、第二最大池化层以及第三最大池化层采用最大池化,设置步长为2;
第一全连接层的神经元个数为32,第二全连接层的神经元个数为类别的数量;
所述步骤3中,MLP分支网络的结构如下:
MLP分支网络由三层全连接层构成;
定义三层全连接层分别为第三全连接层、第四全连接层以及第五全连接层;则第三全连接层、第四全连接层以及第五全连接层依次连接;
第三全连接层作为MLP分支网络的输入层,包含21个神经元,输入为预处理后得到的21个手部关键点特征数据;第四全连接层为隐藏层,包含16个神经元;
第五全连接层为MLP分支网络的输出层,神经元的个数设置为类别的数量。
6.根据权利要求5所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤3中,定义第一特征向量为Tout,第二特征向量为Jout
特征融合模块对两个分支网络提取的特征信息合理融合,引入自适应的特征权重ω1、ω2,使模型根据数据的特征分布来自行决定权重参数,在特征融合模块以不同的权重来融合特征;
融合的手势特征Cf使用公式(5)计算得来:
Figure FDA0003709022100000031
其中,
Figure FDA0003709022100000032
代表Sum Fusion融合方式,权重ω1、ω2由公式(6)得到:
Figure FDA0003709022100000033
其中,i=1,2,j=1,2,ωi为归一化的权重,且∑ωi=1,αi为初始化的权重参数;
分类模块包括两个全连接层;
定义两个全连接层分别为第六全连接层以及第七全连接层;
最终经过特征融合模块融合后的手势特征Cf经过两层全连接层完成最终的分类;
其中,第六全连接层包含32个神经元;
第七全连接层作为输出层,使用Softmax分类函数,神经元的个数设置为类别的数量。
7.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤4中,多输入融合深度网络的训练过程如下:
将步骤2得到的21个手部关键点的特征数据作为分支网络MLP的输入,经过三层全连接层进行特征提取,得到一个第一特征向量,标记为特征向量Tout
将步骤2得到的手势图片数据作为分支网络CNN的输入,经过CNN网络提取特征后,得到一个第二特征向量,标记为输出特征向量Jout
通过特征融合模块使用自适应特征融合的方法将两个分支网络的输出特征向量组合起来,然后进一步经过全连接神经网络使用softmax分类器进行预测分类;
在训练过程中使用Dropout防止过拟合,使得模型收敛速度加快;
使用分类交叉熵损失函数,计算方法如公式(2)所示:
Figure FDA0003709022100000041
其中,m是手势类别的数量,
Figure FDA0003709022100000042
表示模型的预测输出,yi表示真实的标签;
设定模型训练次数,模型使用Adam优化器进行训练;
根据预测输出与对应的分类标签进行计算,得出分类损失函数Loss值;当Loss值不再下降时停止训练更新,保存模型以及权重参数;
最后从保存的模型权重中读取参数,得到训练好的多输入融合深度网络模型。
8.一种基于MLP和CNN的多输入融合深度网络的手势识别***,其特征在于,包括:
图像采集模块,用于获取原始手势图像数据并构建原始手势图像数据集;
数据预处理模块,用于对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
模型搭建及训练测试模块,用于搭建、训练以及测试多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
利用训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
预测模块,对于待识别的手势图像,用于提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别得到识别结果。
9.一种计算机设备,包括存储器和一个或多个处理器,所述存储器中存储有可执行代码,其特征在于,所述处理器执行所述可执行代码时,
实现如权利要求1至7任一项所述的多输入融合深度网络的手势识别方法。
10.一种计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时,实现如权利要求1至7任一项所述的多输入融合深度网络的手势识别方法。
CN202210717218.3A 2022-06-23 2022-06-23 一种手势识别方法、***、计算机设备以及可读存储介质 Active CN115223239B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210717218.3A CN115223239B (zh) 2022-06-23 2022-06-23 一种手势识别方法、***、计算机设备以及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210717218.3A CN115223239B (zh) 2022-06-23 2022-06-23 一种手势识别方法、***、计算机设备以及可读存储介质

Publications (2)

Publication Number Publication Date
CN115223239A true CN115223239A (zh) 2022-10-21
CN115223239B CN115223239B (zh) 2024-05-07

Family

ID=83608966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210717218.3A Active CN115223239B (zh) 2022-06-23 2022-06-23 一种手势识别方法、***、计算机设备以及可读存储介质

Country Status (1)

Country Link
CN (1) CN115223239B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117292404A (zh) * 2023-10-13 2023-12-26 哈尔滨工业大学 一种高精度手势数据识别方法、电子设备及存储介质
CN117523679A (zh) * 2024-01-08 2024-02-06 成都运达科技股份有限公司 一种驾驶员手势识别方法、***及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109033978A (zh) * 2018-06-28 2018-12-18 济南大学 一种基于纠错策略的cnn-svm混合模型手势识别方法
CN112836597A (zh) * 2021-01-15 2021-05-25 西北大学 基于级联并行卷积神经网络的多手姿态关键点估计方法
CN113255602A (zh) * 2021-06-29 2021-08-13 江南大学 基于多模态数据的动态手势识别方法
CN114120350A (zh) * 2020-08-26 2022-03-01 华为技术有限公司 一种手势识别的方法及其相关设备
CN114360067A (zh) * 2022-01-12 2022-04-15 武汉科技大学 一种基于深度学习的动态手势识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109033978A (zh) * 2018-06-28 2018-12-18 济南大学 一种基于纠错策略的cnn-svm混合模型手势识别方法
CN114120350A (zh) * 2020-08-26 2022-03-01 华为技术有限公司 一种手势识别的方法及其相关设备
CN112836597A (zh) * 2021-01-15 2021-05-25 西北大学 基于级联并行卷积神经网络的多手姿态关键点估计方法
CN113255602A (zh) * 2021-06-29 2021-08-13 江南大学 基于多模态数据的动态手势识别方法
CN114360067A (zh) * 2022-01-12 2022-04-15 武汉科技大学 一种基于深度学习的动态手势识别方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117292404A (zh) * 2023-10-13 2023-12-26 哈尔滨工业大学 一种高精度手势数据识别方法、电子设备及存储介质
CN117292404B (zh) * 2023-10-13 2024-04-19 哈尔滨工业大学 一种高精度手势数据识别方法、电子设备及存储介质
CN117523679A (zh) * 2024-01-08 2024-02-06 成都运达科技股份有限公司 一种驾驶员手势识别方法、***及存储介质

Also Published As

Publication number Publication date
CN115223239B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
CN107633207B (zh) Au特征识别方法、装置及存储介质
CN109558832B (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN107633204B (zh) 人脸遮挡检测方法、装置及存储介质
CN110427867B (zh) 基于残差注意力机制的面部表情识别方法及***
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
CN110532920B (zh) 基于FaceNet方法的小数量数据集人脸识别方法
CN110728209B (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN109902548B (zh) 一种对象属性识别方法、装置、计算设备及***
CN112200111A (zh) 一种全局与局部特征融合的遮挡鲁棒行人重识别方法
CN110555481A (zh) 一种人像风格识别方法、装置和计算机可读存储介质
CN111989689A (zh) 用于识别图像内目标的方法和用于执行该方法的移动装置
CN115223239B (zh) 一种手势识别方法、***、计算机设备以及可读存储介质
CN112597941A (zh) 一种人脸识别方法、装置及电子设备
CN107679448A (zh) 眼球动作分析方法、装置及存储介质
CN114758362B (zh) 基于语义感知注意力和视觉屏蔽的换衣行人重识别方法
CN110222718B (zh) 图像处理的方法及装置
CN111368672A (zh) 一种用于遗传病面部识别模型的构建方法及装置
CN113449573A (zh) 一种动态手势识别方法及设备
CN108073851B (zh) 一种抓取手势识别的方法、装置及电子设备
CN111428664B (zh) 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法
CN112597324A (zh) 一种基于相关滤波的图像哈希索引构建方法、***及设备
CN111507285A (zh) 人脸属性识别方法、装置、计算机设备和存储介质
Liao et al. A two-stage method for hand-raising gesture recognition in classroom
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant