CN108537147A - 一种基于深度学习的手势识别方法 - Google Patents
一种基于深度学习的手势识别方法 Download PDFInfo
- Publication number
- CN108537147A CN108537147A CN201810242638.4A CN201810242638A CN108537147A CN 108537147 A CN108537147 A CN 108537147A CN 201810242638 A CN201810242638 A CN 201810242638A CN 108537147 A CN108537147 A CN 108537147A
- Authority
- CN
- China
- Prior art keywords
- gesture
- profile
- dynamic
- binaryzation
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度学习的手势识别方法,其特征在于,包括以下步骤:利用手势训练集和测试集对二值化卷积神经网络进行训练;利用肤色反映的颜色信息,基于颜色信息对预处理后的原始图像进行分割,提取手势轮廓;利用训练后的二值化卷积神经网络判断手势轮廓对应的手势指令;定位一系列手势轮廓对应的动态手势起、止点,并使用TLD算法追踪手势轨迹,追踪过程中的偏差使用Haar分类器进行修正,再使用HMM算法识别动态手势。本发明提供的方法可以解决传统的手势识别中一般存在着的识别精度不高、稳定性差、实时性较差、手势功能单一等问题。
Description
技术领域
本发明涉及一种基于深度学习手势识别方法,属于手势识别技术领域。
背景技术
计算机的出现,对人类的社会生产和日常生活产生了极其重要的影响,它一方面极大地提高了信息处理的效率,另一方面推动了智能化生活的发。因此,如何高效便捷地与计算机交互成为人们研究的热点。
随着社会信息技术的发展,人机交互技术(Human Computer Interaction,英文简称为HCI),已成为日常生活的重要组成部分。作为一种新兴的人机交互方式,手势识别技术在很多范围领域都有着广泛的使用前景:(1)数字生活及娱乐方面。例如,2008年,爱立信推出一款智能手机R520m,该手机通过其内置摄像头采集用户的手势信息,在手机界面充当键盘或触摸屏,从而实现对闹钟和来电的控制。(2)科技创新领域。在太空探索和军事研究领域,经常会遇到一些危险环境或不便于人直接接触控制的特殊环境,这时可通过手势远程操控机器人进行交互获得相关信息。(3)智能交通领域,例如无人驾驶。早在2010年,Google公司已经对外公布了他们的无人驾驶汽车,该汽车开辟了智能交通的新时代。
在人机交互技术领域中手势识别技术可以起到以下作用:
(1)对用户而言,帮助用户更便捷的使用产品,节省用户时问、提升户体用户体验;
(2)对产品而言,淘汰冗余的使用说明,产品使用只需提供相关的通用手势指导即可。
发明内容
本发明要解决的技术问题是:传统的手势识别算法中一般存在着识别精度不高,稳定性差,实时性较差,手势功能单一等问题。
为了解决上述技术问题,本发明的技术方案是提供了一种基于深度学习的手势识别方法,其特征在于,包括以下步骤:
步骤1、利用手势训练集和测试集对二值化卷积神经网络进行训练;
步骤2、采集原始手势图像后,对原始手势图像进行预处理,以去除光照对原始图像造成的影响;
步骤3、利用肤色反映的颜色信息,基于颜色信息对预处理后的原始图像进行分割,提取手势轮廓;
步骤4、判断步骤3提取到的手势轮廓是否为动态手势的起、止点,若是,则该手势轮廓其后的一系列图像提取的手势轮廓为动态手势,进入步骤6,若不是,则该手势轮廓为静态手势,进入步骤5;
步骤5、利用训练后的二值化卷积神经网络判断手势轮廓对应的手势指令;
步骤6、定位一系列手势轮廓对应的动态手势起、止点,并使用TLD算法追踪手势轨迹,追踪过程中的偏差使用Haar分类器进行修正,再使用HMM算法识别动态手势。
优选地,在所述步骤2中,所述预处理包括亮度修正及光线补偿;
亮度修正时,对原始手势图像中高亮区域使用修正的指数变换来修正;对于原始手势图像中较暗的区域,使用带参数的对数变换来修正,对其他区域则不进行修正;
基于动态阈值进行光线补偿,基于全反射理论的算法将原始手势图像转换到YCbCr色彩空间,然后将YCbCr色彩空间图像中Y分量较大的点的集合当做白色参考点。
优选地,在所述步骤3中,对原始图像进行分割时,采用基于YCbCr色彩空间的肤色分割算法。
本发明提供的方法可以解决传统的手势识别中一般存在着的识别精度不高、稳定性差、实时性较差、手势功能单一等问题。
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:
本发明对传统基于常规手势识别算法做了改进,使用了改进光照补偿策略,使得原始图像更容易处理,使用改进的肤色模型分割手势从而提升了分割的准确性,使用改进深度卷积网络对静态手势分类,提升了静态手势识别率;使用改进的TLD和HMM算法对动态手势进行跟踪和识别,提升了手势***的鲁棒性和实时性和识别率。
附图说明
图1是本发明基于深度学习的手势识别***的设计的***结构示意;
图2是本发明二值化卷积神经网络结构图;
图3是TLD算法框架图;
图4是TLD算法的详细流程图;
图5改进的TLD算法流程图;
图6***软件设计流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于深度学习的手势识别方法,如图1所示,包括以下步骤:
步骤1、利用手势训练集和测试集对二值化卷积神经网络进行训练;
步骤2、采集原始手势图像后,对原始手势图像进行预处理,以去除光照对原始图像造成的影响;
步骤3、利用肤色反映的颜色信息,基于颜色信息对预处理后的原始图像进行分割,提取手势轮廓;
步骤4、判断步骤3提取到的手势轮廓是否为动态手势的起、止点,若是,则该手势轮廓其后的一系列图像提取的手势轮廓为动态手势,进入步骤6,若不是,则该手势轮廓为静态手势,进入步骤5;
步骤5、利用训练后的二值化卷积神经网络判断手势轮廓对应的手势指令;
步骤6、定位一系列手势轮廓对应的动态手势起、止点,并使用TLD算法追踪手势轨迹,追踪过程中的偏差使用Haar分类器进行修正,再使用HMM算法识别动态手势。
下面结合实施例进一步详细说明上述各个步骤:
1、步骤2中对原始手势图像进行的预处理主要包括:基于指数变换和对数变换的亮度修正、基于动态阈值的光线补偿,具体包括:
(1)基于指数变换和对数变换的亮度修正。
指数变换只对图像中偏亮区域有不错的修正效果,对数变换对图像中较暗的区域有较好的修正效果,将两者相结合实现一种针对人手的光线补偿策略,如公式(1)所示,对高亮区域,使用修正的指数变换来修正,对于较暗的区域,使用带参数的对数变换来修正,对其他区域不进行修正。
公式(1)使用参数如下:
g(x,y)表示修正后的图像;f(x,y)表示原始手势图像;a表示高光调整系数,在本实施例中a=0;b表示图像的平均亮度,在本实施例中b=120/log T1;c表示正常数通过实验调试得出,在本实施例中c=T2;d表示(正常数通过实验调试得出,在本实施例中d=1/255-T2;T1表示较暗光照条件下,光线下限阈值,在本实施例中T1=115;T2表示较亮光照条件下,光线上限阈值,在本实施例中T2=135。
(2)基于动态阈值的光线补偿
基于全反射理论的算法将图像转换到YCbCr色彩空间,然后将YCbCr色彩空间中Y分量较大的点的集合当做白色参考点。其详细的流程如下:
假设原始手势图像为f(x,y),大小为m×n,则有:
步骤1、首先利用式(2)将原始手势图像f(x,y)从RGB色彩空间转换到YCbCr色彩空间:
步骤2、获取参考白点
(a)将转换后的图像切割成M×N块,本实施例中,M=3,N=4;
(b)对每个分割后的块,分别计算YCbCr空间中Cb和Cr分量的平均值Mb和Mr;
(c)使用Mb和Mr来对每个分块的Cb和Cr分量的平均绝对误差Db和Dr进行计算,计算公式为式(3):
式(3)中,Cb(i,j)表示每一个像素点的B分量相对于亮度的偏移量,Cr(i,j)表示R分量相对于亮度的偏移量,sum表示当前分块的像素总数目。
2、步骤3中基于颜色信息对预处理后的原始图像进行分割时,采用基于YCbCr色彩空间肤色分割算法,具体包括:
YCbCr色彩空间又称为YUV色彩空间,Y表示明亮度,Cr和Cb表示色度和饱和度,其中,Cr反映了RGB输入信号红色部分与RGB信号亮度值之间的差异。而Cb反映的是RGB输入信号蓝色部分与RGB信号亮度值之间的差异。RGB色彩空间向YCrCb的转换公式为式(4)所示:
通过反复试验,参数基本的取值如下:
77≤Cb≤127 AND 132≤Cr≤172 (5)
但是式(5)为包含更多的肤色范围,提供的取值区间过大,因此容易引入诸如橘色或者棕色物体干扰。本发明针对黄种人特有的肤色特征,经过多次调试,中的取值进行调整,可以有效排除类肤色物体的干扰,取值如下:
3、步骤1中二值化卷积神经网络采用在MOCNN基础上的基于二值化的卷积神经网络(BCNN),具体包括:
目前通行的深度卷积神经网络算法都有一个共同缺陷,就是计算消耗巨大。因此,对网络计算消耗的优化也主要围绕这两个方面展开。这里在MPCNN手势分类方法的基础上,提出一种基于二值化的卷积神经网络(binary convolution neural networks,BCNN)手势分类方法,采用二值化近似的策略对神经网络进行改进,降低其对计算资源的消耗。二值化网络降低计算资源消耗的方式主要有两个:第一,采用二值化近似的权值表示原有的双精度权值,降低了网络在计算中的内存占用;第二,对每一层中计算消耗最大的乘法计算中的输入和权值采用二值化近似的值进行替代,这样乘法计算就可以简化成加减法甚至位运算。包含对卷积块的改造和对全连接块的改造。
(1)卷积块的二值化。
对卷积神经网络进行二值化近似改造的具体方式如下:
第一步,在正向传播过程中,对卷积网络的权值矩阵w按照式(7)进行二值化得到wb,并保留原本的权值矩阵w,即:
式(7)中,代表二值化近似后得到矩阵wb中的权值,cf、wf、hf表示卷积核的数量、宽度和高度,标准的sign函数中,当w=0时,会取得sign(w)=0,而这里为了达到二值化的效果,不允许有第3个值存在,所以规定当w=0时取sign(w)=1。
第二步,在每层的前一层之前增加一个二值化激活层得到节点值妒,替代原本的ReLU激活层,如式(8)所示,即:
式(8)中,为二值化网络的第i层的输入值,c,w,h分别表示输入图像的通道数,宽度和高度;L(X(i-1))为第i层二值化激活层得到的值;X(i-1)表示二值化网络的第i-1层的输入值。
sign的函数与式(8)保持一致。最后,得到的权值wb在二值化卷积层进行卷积操作,如式(9)所示,即:
式(9)中:Lb(Xb)为二值化的网络层函数;为卷积操作;Xb即为wb分别经过式(7)和式(8)得到。
对于卷积块,其结构也需要一定的调整。将归一化处理BatchNorm层和二值化激活层放在卷积操作之前,这个是为了防止二值化激活层的结果在经过最大池化层时出现结果大多数为1的情况。具体的网络结构,如图2所示。
训练的反向传播的过程如下。最后一层算出梯度,倒数第二层到第一层逐层反向传播算出节点的梯度以及权值的梯度,再对二值化前保留的w进行更新得到wu并进行如式(10)的宽松操作,即:
式(10)中,wu表示在正向传播过程中保留的浮点数权值更新后的值;σ(wu)表示权重wu>0时概率;chip(·)表示max函数。
(2)全连接块的二值化。
全连接块的二值化与卷积块的二值化基本一致不同的是将二值化卷积层替换为二值化全连接层,并去除了最大池化层。二值化全连接层的计算公式如式(11)所示。
Lb(Xb)=wbXb (11)
式(11)中,Lb(Xb)为二值化的全连接层函数;Xb,wb分别经过式(7)和式(8)得到。二值化的全连接层去除了偏置b。
4、在步骤6中,使用TLD算法追踪手势轨迹,追踪过程中的偏差使用Haar分类器进行修正,再使用HMM算法识别动态手势的具体方法包括:
4.1、TLD算法框架由三个部分组成:跟踪、学习、检测,如图3所示:
在算法框架中,三个部分协同互补,完成对物体的跟踪。在跟踪模块中,前提条件为物体运动速度不高,在相邻两帧之间物体不会出现大幅度位移,而且被跟踪目标始终在摄像头范围内,以此对运动目标进行估计,如果目标从视野中消失,则会造成跟踪失败。在检测模块中,前提为视频每帧之间不产生干扰,通过以往检测和学习到的模型,使用检测算法,分别在每帧图像搜索目标,将目标的可能出现区域进行标定。当检测模块出现错误时,学习模块根据跟踪模块得到的结果,对检测模块出现的错误进行评价,生成训练样本,更新检测模块的目
标模型和跟踪模块的关键特征点,从而避免出现类似的错误。TLD算法的详细流程图如图4所示。
TLD算法对目标跟踪实时性好,且当目标被遮挡或离开摄像头区域,又重新出现时,依然能识别被进行跟踪。但是该算法需要在初始化时通过鼠标手动选择被跟踪目标,不利于目标跟踪的自动化;同时,在检测模块中采用的LBP特征,虽然计算简单,容易满足实时性要求,但是在跟踪过程中会出现位置偏差,导致跟踪失败。因此本***在原有TLD算法的基础上,结合静态手势识别和手势跟踪的特点,对算法做出如下改进:
为解决算法初始化时,需要手动选定目标区域问题,将静态手势识别数据库加入检测模块中,当视频帧中出现与手势数据库相匹配手势时,自动初始化TLD跟踪算法。同时,由于采用已训练好的静态手势数据库,则可以去除原有TLD算法中的学习模块,当用户手势发生变化时,只需重新检索视频帧是否存在手势数据库中手势,再将TLD算法初始化,改进的TLD算法流程如图5所示。
4.2、使用Haar分类器修正跟踪过程中的偏差
Haar分类器的构建主要步骤包括提取Haar特征和训练分类器两部分。Haar特征主要包括中心特征、线性特征、边缘特征和对角特征。为了得到最终的Haar分类器,本发明采用改进的Adaboost算法来训练。首先以从样本提取的Haar特征来训练不同的弱分类器,然后将这些弱分类器整合得到最终的强分类器,也就是本文需要的Haar分类器。
改进的Adaboost算法的实现流程如下:
假设X是样本空间,Y是样本类别标识集合。对于典型的两分类问题有Y={0,1},记S={(xi,yi)|i=1,2,3,…,m}为加入标签后的训练样本集合,其中,有xi∈X,yi∈Y,假设达到最终的目标时一共迭代了T次。
步骤1、对m个样本的权值进行初始化:
式中,Dt(i)表示在第t次迭代中样本(xi,yi)的权值。
步骤2、对于t=1,2,3…,T,分别计算:
(a)为样本x的每一个特征f训练一个弱分类器hl(x,f,p,θ):
式(13)中,θ表示f对应的弱分类器的阈值,p的作用是调整不等号方向。计算使用qi所对所有的特征的弱分类器加权后的分类错误率εf:
εf=∑iqi|ht(x,f,p,θ)-yi| (14)
式(14)中,yi表示样本类别标识空间中元素,qi表示第i个训练样本的权值。
(b)挑选出拥有最小错误率εt的最佳弱分类器εt
εt=minf,p,θ∑iqi|ht(x,f,p,θ)-yi| (15)
(c)使用最佳弱分类器来修正样本权值:
βt=εt(1-εt) (17)
式(16)中,Dt+1(i)表示第t+1个训练样本的概率值,表示Dt+1与Dt存在迭代关系,可以通过Dt更新Dt+1。
式(17)中,βt表示归一化常数。
若样本xi被正确分类,则ei=0,否则,ei=1。
步骤3、最终Haar分类器C(x):
αt=log(1/βt) (19)
4.3、基于HMM动态手势轨迹识别
本发明中,识别动态手势轨迹可以使用隐马尔科夫模型,识别过程对应于隐马尔科夫模型求解的三个过程:
(1)估计问题
该问题是指对于一个给定隐马尔科夫模型λ=(π,A,B),及通过该模型产生的一个观测值序列O=(o1,o2,…,oT),计算产生的观测序列O的似然概率P(O|λ)。解决此问题的一个有效算法为前向-后向递推算法。
定义前向变量为:
αt(i)=P(o1,o2,…oT,qt=θi|λ),1≤t≤T (19)
式(19)中,P(.)表示观测序列的似概率;o1,o2,…oT表示观测序列;qt表示时刻t的观测值;θi表示***状态值;λ表示隐马尔科夫模型;T表示观测总时间;t表示时间刻度,取值0-T之间。
记bj(ot)=bjk|ot=vk,bj(ot)表示观测状态转移矩阵,bjk表示任意t时刻,***观测矩阵,vk表示t时刻的隐含状态,前向算法步骤为:
初始化:
α1(i)=πibj(o1),1≤i≤N (20)
式(20)中,α1(i)表示从1-i时刻出现o1~oi观测序列,且该时刻隐藏状态v1为1的概率;πi表示初始概率分布矩阵。
递归:
式(21)中,αt+1(j)表示j时刻隐藏状态vt+1为t+1的概率,αi,j表示在任意t时刻,***状态转移矩阵。
计算P(O|λ):
式(15)中,P(O|λ)表示当前模型λ下产生观测序列O的似然概率。定义后变量为:
βt(i)=P(ot+1,ot+2,…oT,qt=θi|λ),1≤t≤T (22)
式(22)中,βt(i)表示t时刻P(O|λ)的后验概率。
后向算法的步骤为:
初始化:
βT(i)=1,1≤i≤N (23)
递归:
t=T-1,T-2,,,,1,1≤i≤N
计算P(O|λ):
通过在计算前半部分采用前向算法,设时间段为0~t,在计算的后半部分采用后向算法,设时间段为t~T,可以求得概率为:
(2)解码问题
对于一个隐马尔科夫模型λ=(π,A,B),首先需要求出该模型产生的一个观测值序列O=(o1,o2,…oT,),在观测值序列的基础上,计算模型产生观测序列的过程中所经历的最佳状态序列这里使用Viterbi算法即可。
(3)学习问题
在不知道隐马尔科夫模型参数的情况下,根据模型产生观测序列O=(o1,o2,…oT,),通过调整模型参数,使得似然概率P(O|λ)取值最大。本***中,学习问题通常使用Baum-Welch算法解决。
手势识别平台通过摄像头采集手势图像,将其中的手势命令转换成计算机可以执行的指令。首先需要样本数据库,静态手势与动态手势轨迹识别均在此数据库基础上进行:手势图像可以通过摄像头获取,也可以直接来自本地视频文件;获取手势图像之后,对其进行手势分割,图像二值化和特征提取等操作;最后对其进行手势识别,返回识别结果便于我们进程观察。***软件设计流程如图6所示。该***使用多线程开发,其中图像预处理,手势分割在副线程1中完成,动态手势追踪和识别在副线程3中完成。
Claims (3)
1.一种基于深度学习的手势识别方法,其特征在于,包括以下步骤:
步骤1、利用手势训练集和测试集对二值化卷积神经网络进行训练;
步骤2、采集原始手势图像后,对原始手势图像进行预处理,以去除光照对原始图像造成的影响;
步骤3、利用肤色反映的颜色信息,基于颜色信息对预处理后的原始图像进行分割,提取手势轮廓;
步骤4、判断步骤3提取到的手势轮廓是否为动态手势的起、止点,若是,则该手势轮廓其后的一系列图像提取的手势轮廓为动态手势,进入步骤6,若不是,则该手势轮廓为静态手势,进入步骤5;
步骤5、利用训练后的二值化卷积神经网络判断手势轮廓对应的手势指令;
步骤6、定位一系列手势轮廓对应的动态手势起、止点,并使用TLD算法追踪手势轨迹,追踪过程中的偏差使用Haar分类器进行修正,再使用HMM算法识别动态手势。
2.如权利要求1所述的一种基于深度学习的手势识别方法,其特征在于,在所述步骤2中,所述预处理包括亮度修正及光线补偿;
亮度修正时,对原始手势图像中高亮区域使用修正的指数变换来修正;对于原始手势图像中较暗的区域,使用带参数的对数变换来修正,对其他区域则不进行修正;
基于动态阈值进行光线补偿,基于全反射理论的算法将原始手势图像转换到YCbCr色彩空间,然后将YCbCr色彩空间图像中Y分量较大的点的集合当做白色参考点。
3.如权利要求1所述的一种基于深度学习的手势识别方法,其特征在于,在所述步骤3中,对原始图像进行分割时,采用基于YCbCr色彩空间的肤色分割算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810242638.4A CN108537147B (zh) | 2018-03-22 | 2018-03-22 | 一种基于深度学习的手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810242638.4A CN108537147B (zh) | 2018-03-22 | 2018-03-22 | 一种基于深度学习的手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108537147A true CN108537147A (zh) | 2018-09-14 |
CN108537147B CN108537147B (zh) | 2021-12-10 |
Family
ID=63483626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810242638.4A Active CN108537147B (zh) | 2018-03-22 | 2018-03-22 | 一种基于深度学习的手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537147B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508670A (zh) * | 2018-11-12 | 2019-03-22 | 东南大学 | 一种基于红外摄像头的静态手势识别方法 |
CN109614922A (zh) * | 2018-12-07 | 2019-04-12 | 南京富士通南大软件技术有限公司 | 一种动静态手势识别方法和*** |
CN109634415A (zh) * | 2018-12-11 | 2019-04-16 | 哈尔滨拓博科技有限公司 | 一种用于控制模拟量的手势识别控制方法 |
CN109684959A (zh) * | 2018-12-14 | 2019-04-26 | 武汉大学 | 基于肤色检测和深度学习的视频手势的识别方法及装置 |
CN110908581A (zh) * | 2019-11-20 | 2020-03-24 | 网易(杭州)网络有限公司 | 手势识别的方法及装置、计算机存储介质、电子设备 |
CN111753764A (zh) * | 2020-06-29 | 2020-10-09 | 济南浪潮高新科技投资发展有限公司 | 一种边缘端基于姿态估计的手势识别方法 |
CN112183639A (zh) * | 2020-09-30 | 2021-01-05 | 四川大学 | 一种矿物图像识别与分类方法 |
CN112270220A (zh) * | 2020-10-14 | 2021-01-26 | 西安工程大学 | 一种基于深度学习的缝纫手势识别方法 |
CN112784812A (zh) * | 2021-02-08 | 2021-05-11 | 安徽工程大学 | 一种深蹲动作识别方法 |
CN113449573A (zh) * | 2020-03-27 | 2021-09-28 | 华为技术有限公司 | 一种动态手势识别方法及设备 |
CN114049539A (zh) * | 2022-01-10 | 2022-02-15 | 杭州海康威视数字技术股份有限公司 | 基于去相关二值网络的协同目标识别方法、***及装置 |
CN114627561A (zh) * | 2022-05-16 | 2022-06-14 | 南昌虚拟现实研究院股份有限公司 | 动态手势识别方法、装置、可读存储介质及电子设备 |
US20230107097A1 (en) * | 2021-10-06 | 2023-04-06 | Fotonation Limited | Method for identifying a gesture |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106502570A (zh) * | 2016-10-25 | 2017-03-15 | 科世达(上海)管理有限公司 | 一种手势识别的方法、装置及车载*** |
US20170220122A1 (en) * | 2010-07-13 | 2017-08-03 | Intel Corporation | Efficient Gesture Processing |
-
2018
- 2018-03-22 CN CN201810242638.4A patent/CN108537147B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170220122A1 (en) * | 2010-07-13 | 2017-08-03 | Intel Corporation | Efficient Gesture Processing |
CN106502570A (zh) * | 2016-10-25 | 2017-03-15 | 科世达(上海)管理有限公司 | 一种手势识别的方法、装置及车载*** |
Non-Patent Citations (5)
Title |
---|
田淑芳 等: "《遥感地质学 第2版》", 31 January 2014, 北京:地质出版社 * |
胡骏飞 等: "基于二值化卷积神经网络的手势分类方法研究", 《湖南工业大学学报》 * |
范文兵 等: "一种基于肤色特征提取的手势检测识别方法", 《现代电子技术》 * |
韦艳柳 等: "利用肤色信息和几何特征的人脸检测算法研究", 《无线互联科技》 * |
齐静 等: "机器人视觉手势交互技术研究进展", 《机器人》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508670A (zh) * | 2018-11-12 | 2019-03-22 | 东南大学 | 一种基于红外摄像头的静态手势识别方法 |
CN109508670B (zh) * | 2018-11-12 | 2021-10-12 | 东南大学 | 一种基于红外摄像头的静态手势识别方法 |
CN109614922A (zh) * | 2018-12-07 | 2019-04-12 | 南京富士通南大软件技术有限公司 | 一种动静态手势识别方法和*** |
CN109614922B (zh) * | 2018-12-07 | 2023-05-02 | 南京富士通南大软件技术有限公司 | 一种动静态手势识别方法和*** |
CN109634415A (zh) * | 2018-12-11 | 2019-04-16 | 哈尔滨拓博科技有限公司 | 一种用于控制模拟量的手势识别控制方法 |
CN109684959A (zh) * | 2018-12-14 | 2019-04-26 | 武汉大学 | 基于肤色检测和深度学习的视频手势的识别方法及装置 |
CN110908581B (zh) * | 2019-11-20 | 2021-04-23 | 网易(杭州)网络有限公司 | 手势识别的方法及装置、计算机存储介质、电子设备 |
CN110908581A (zh) * | 2019-11-20 | 2020-03-24 | 网易(杭州)网络有限公司 | 手势识别的方法及装置、计算机存储介质、电子设备 |
CN113449573A (zh) * | 2020-03-27 | 2021-09-28 | 华为技术有限公司 | 一种动态手势识别方法及设备 |
CN111753764A (zh) * | 2020-06-29 | 2020-10-09 | 济南浪潮高新科技投资发展有限公司 | 一种边缘端基于姿态估计的手势识别方法 |
CN112183639A (zh) * | 2020-09-30 | 2021-01-05 | 四川大学 | 一种矿物图像识别与分类方法 |
CN112270220A (zh) * | 2020-10-14 | 2021-01-26 | 西安工程大学 | 一种基于深度学习的缝纫手势识别方法 |
CN112784812A (zh) * | 2021-02-08 | 2021-05-11 | 安徽工程大学 | 一种深蹲动作识别方法 |
US20230107097A1 (en) * | 2021-10-06 | 2023-04-06 | Fotonation Limited | Method for identifying a gesture |
US11983327B2 (en) * | 2021-10-06 | 2024-05-14 | Fotonation Limited | Method for identifying a gesture |
CN114049539A (zh) * | 2022-01-10 | 2022-02-15 | 杭州海康威视数字技术股份有限公司 | 基于去相关二值网络的协同目标识别方法、***及装置 |
CN114627561A (zh) * | 2022-05-16 | 2022-06-14 | 南昌虚拟现实研究院股份有限公司 | 动态手势识别方法、装置、可读存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108537147B (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537147A (zh) | 一种基于深度学习的手势识别方法 | |
CN109977918B (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
Wang et al. | Research on face recognition based on deep learning | |
Zhang et al. | Robust visual tracking based on online learning sparse representation | |
Ioannou et al. | Emotion recognition through facial expression analysis based on a neurofuzzy network | |
CN109584248A (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN108875588A (zh) | 基于深度学习的跨摄像头行人检测跟踪方法 | |
CN108268859A (zh) | 一种基于深度学习的人脸表情识别方法 | |
CN108629288B (zh) | 一种手势识别模型训练方法、手势识别方法及*** | |
CN112784736B (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN106897670A (zh) | 一种基于计算机视觉的快递暴力分拣识别方法 | |
CN108256421A (zh) | 一种动态手势序列实时识别方法、***及装置 | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
CN111666843A (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN109543632A (zh) | 一种基于浅层特征融合引导的深层网络行人检测方法 | |
CN112949647B (zh) | 三维场景描述方法、装置、电子设备和存储介质 | |
CN103049751A (zh) | 一种改进的加权区域匹配高空视频行人识别方法 | |
CN111158491A (zh) | 一种应用于车载hud的手势识别人机交互方法 | |
CN109344822A (zh) | 一种基于长短期记忆网络的场景文本检测方法 | |
Zheng et al. | Static Hand Gesture Recognition Based on Gaussian Mixture Model and Partial Differential Equation. | |
CN111158457A (zh) | 一种基于手势识别的车载hud人机交互*** | |
CN114821764A (zh) | 一种基于kcf追踪检测的手势图像识别方法及*** | |
Fan | Research and realization of video target detection system based on deep learning | |
Huo et al. | Semisupervised learning based on a novel iterative optimization model for saliency detection | |
CN110503090B (zh) | 基于受限注意力模型的字符检测网络训练方法、字符检测方法和字符检测器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |