CN105912974A - 一种手势识别方法及装置 - Google Patents
一种手势识别方法及装置 Download PDFInfo
- Publication number
- CN105912974A CN105912974A CN201510964806.7A CN201510964806A CN105912974A CN 105912974 A CN105912974 A CN 105912974A CN 201510964806 A CN201510964806 A CN 201510964806A CN 105912974 A CN105912974 A CN 105912974A
- Authority
- CN
- China
- Prior art keywords
- focus point
- coordinate
- projection
- image
- staff
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000005484 gravity Effects 0.000 claims abstract description 14
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 5
- 230000007812 deficiency Effects 0.000 description 3
- 230000036039 immunity Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种手势识别方法及装置,手势识别方法,包括如下步骤:获取一帧图像,计算所述图像中所述人手的重心点;计算本次所述重心点与上一次保存的重心点之间的距离,判断所述距离是否大于预设距离阈值,当判断结果为是,则获取所述重心点并保存;判断连续成功获取所述重心点的次数是否超过预设次数阈值,当判断结果为是,则根据连续成功获取的多个所述重心点的坐标判断所述人手的运动方向,相应地,本发明实施例还提供了一种手势识别的装置,根据本发明实施例提供的技术方案,可以快速判断人手的运动方向,抗干扰性强,识别精度高,在人手快速运动时也可以使精确识别人手的运动方向。
Description
技术领域
本发明实施例涉及手势识别技术领域,尤其涉及一种手势识别方法及装置。
背景技术
随着社会的计算机化的发展,计算机在现代社会中的影响越来越大,人与计算机的交互方式也不仅仅局限于只是通过鼠标键盘,基于手势识别的人机交互方式在慢慢被人们所熟知并普遍应用,手势识别的交互方式直观性使得人机交互的过程变得更灵活、更直接、更方便。
然而,在目前手势识别的技术中,按照是否识别手的运动状态来区分,可以分为静态手势识别和动态手势识别,静态手势识别仅需根据单帧图像识别出静态手势,动态手势识别则需要根据多帧图像识别动态手势。但是,现有技术中的动态手势识别方法一般要求人手的运动速度不能太快,在人手运动过快的情况下,手势识别率低,很难识别出动态手势。
因此,一种新的手势识别方法及装置亟待提出。
发明内容
本发明实施例提供一种手势识别方法及装置,用以解决现有技术中人手的运动速度过快,使得识别率低的技术缺陷。本专利提出的方法可以快速判断手的水平和竖直运动方向,而且抗干扰性强,即使在手运动速度很快时,也可以实现对手势的识别。
本发明实施例提供一种手势识别方法,包括如下步骤:
获取一帧图像,计算所述图像中所述人手的重心点;
计算本次所述重心点与上一次保存的重心点之间的距离,判断所述距离是否大于预设距离阈值,当判断结果为是,则获取所述重心点并保存;
判断连续成功获取所述重心点的次数是否超过预设次数阈值,当判断结果为是,则根据连续成功获取的多个所述重心点的坐标判断所述人手的运动方向。
相应地,本发明实施例提供一种手势识别装置,包括:
获取模块,用于获取一帧图像,计算所述图像中所述人手的重心点;
保存模块,用于计算本次所述重心点与上一次保存的重心点之间的距离,判断所述距离是否大于预设距离阈值,当判断结果为是,则获取所述重心点并保存;
判断模块,用于判断连续成功获取所述重心点的次数是否超过预设次数阈值,当判断结果为是,则根据连续成功获取的多个所述重心点的坐标判断所述人手的运动方向。
本发明实施例提供的手势识别方法及装置,通过人手的重心点的坐标判断人手的运动方向,改变了现有技术中人手运动过快,识别率低的技术缺陷,可以快速判断人手的运动方向,抗干扰性强,识别精度高,在人手快速运动时也可以使精确识别人手的运动方向,实现对手势的识别。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中手势识别方法流程图;
图2为本发明实施例中图像坐标系下的x轴和y轴示意图;
图3为本发明实施例中基于最小二乘法的拟合直线的示意图;
图4为本发明实施例中图像坐标系下投影向量与x轴向量转角的示意图;
图5为本发明实施例中手势识别方法的应用流程示意图;
图6为本发明实施例中手势识别装置实施例结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在目前手势识别的技术中,按照是否识别手的运动状态来区分,可以分为静态手势识别和动态手势识别,静态手势识别仅需根据单帧图像识别出静态手势,动态手势识别则需要根据多帧图像识别动态手势。但是,现有技术中的动态手势识别方法一般要求人手的运动速度不能太快,在人手运动过快的情况下,手势识别率低,很难识别出动态手势。人们受到人手运动速度的局限,体验不佳,如果能够在人手快速移动的情况下,也能很准确地识别到手势,识别出人手的运动方向,将大大提高用户的体验。为使本发明的目的、技术方案和优点更加清楚,以下结合附图及具体实施例,对本发明作进一步地详细说明。
实施例一
图1为本发明实施例中手势识别方法流程图,结合图1,本发明实施例1、一种手势识别方法,包括如下步骤:
步骤S101:获取一帧图像,计算图像中人手的重心点;
获取多帧图像中的一帧图像,检测获取的图像中是否存在人手,检测人手的方式可以采用图像分割的方法进行检测,或者,通过图像中的像素点的像素值进行检测,检测人手获取的图像是一幅二值图像,其中人手的区域的像素值为255,其余区域的像素值为0,通过逐个扫描图像中的像素点,获取每个像素点的像素值,判断像素值中是否包含人手区域像素值,当判断像素值中包含人手像素值,则图像中存在人手,执行步骤S102,若图像中不存在人手,则重新获取另一帧图像,重新检测获取的图像中是否存在人手。
在二值图像中检测出存在人手,计算图像中人手的重心点,优选地,计算图像中人手的重心点,进一步包括:采用如下公式计算重心点:
其中,image(x,y)是重心点的坐标(x,y)处的像素值,xg和yg分别是本次重心点在x轴方向和y轴方向的重心,图2为本发明实施例中图像坐标系下的x轴和y轴示意图;
步骤S102:计算本次重心点与上一次保存的重心点之间的距离,判断距离是否大于预设距离阈值,当判断结果为是,则获取重心点并保存;
通过步骤S101计算得到本次重心点在x轴方向和y轴方向的重心后,计算本次重心点与上一次保存的重心点之间的距离,判断距离是否大于预设距离阈值,计算本次重心点与上一次保存的重心点之间的距离并判断其是否在距离阈值之内,是为了防止人手的运动距离太短,引起误检测,在本发明实施例中距离阈值可以为获取的图像的高度的10%,或者其他用户自定义的距离阈值,此处不做具体限定。
当本次重心点与上一次保存的重心点之间的距离大于预设距离阈值时,则获取重心点并保存,本次重心点获取成功,执行步骤S103。
若本次重心点与上一次保存的重心点之间的距离小于或等于预设距离阈值,则执行步骤S101。
步骤S103:判断连续成功获取重心点的次数是否超过预设次数阈值,当判断结果为是,则根据连续成功获取的多个重心点的坐标判断人手的运动方向。
通过步骤S102成功获取重心点后,判断连续成功获取重心点的次数是否超过预设次数阈值,判断连续成功得到重心点的次数,是为了保证人手的运动是连续的,距离足够长,减少误检测。
连续获取重心点可以通过两种方式实现,优选地,连续成功获取重心点,包括:在连续帧的图像中均成功获得重心点,或在预设周期内的预设帧的图像中均成功获得重心点。其中,在连续帧的图像中均成功获得重心点步骤为:获取多个图像,多个图像的图像帧是连续的,并且在获取的连续帧的图像中通过步骤S102均成功获取了人手的重心点,获取几个图像,即为连续成功获取重心点的次数为几次,例如,获取连续六帧图像,在连续六帧的图像中均成功获取人手的重心点,则连续成功获取重心点的次数为六次。
在预设周期内的预设帧的图像中均成功获得重心点步骤为:在预设周期内包含多帧图像,在多帧图像中获取其中预设帧的图像,并且在获取的图像中通过步骤S102均成功获取了人手的重心点,获取几个图像,即为连续成功获取重心点的次数为几次,例如,在0.5秒内包含12帧图像,在12帧图像中分别获取偶数帧的图像,即为获取六帧图像,并且在获取的图像中均成功获取人手的重心点,则连续成功获取重心点的次数为六次。
本发明实施例中预设次数阈值包括但不限于六次,也可以为用户自定义的次数,此处不做具体限定。
当连续成功获取重心点的次数超过预设次数阈值,则根据连续成功获取的多个重心点的坐标判断人手的运动方向,连续成功获取几次重心点,则根据获取的重心点的坐标判断人手的运动方向。
对于步骤S103,具体实施方式还包括以下的子步骤,优选地,根据连续成功获取的多个重心点的坐标判断人手的运动方向,进一步包括:
子步骤一:根据连续成功获取的多个重心点的坐标使用最小二乘法拟合一条直线;
由于人手运动方向的检测会受到噪声等因素的干扰,使用若干个手的重心拟合出来的直线可以更准确地反应手的运动方向,拟合直线采用最小二乘法,此方法的计算速度很快,最小二乘法的目标是找到一条直线,使得所有的点到此直线的距离最短,本发明实施例采用OpenCV提供的函数cvFitLine实现此功能,根据连续成功获取的多个重心点的坐标使用最小二乘法拟合一条直线,得到拟合直线后,执行子步骤二,图3为本发明实施例中基于最小二乘法的拟合直线的示意图。
子步骤二:根据连续成功获取的多个重心点的坐标和拟合直线,计算重心点的坐标在拟合直线上的投影坐标,计算多个重心点中第一个重心点的投影坐标连接最后一个重心点的投影坐标而成的投影向量以及x轴向量;
已知重心点的坐标,根据连续成功获取的多个重心点的坐标使用最小二乘法拟合的直线的拟合直线的方程已知,根据拟合直线方程和重心点坐标,就可以计算得到重心点坐标在拟合直线上的投影坐标,对于子步骤二中,优选地,计算重心点的坐标在拟合直线上的投影坐标,进一步包括:采用如下公式计算重心点在拟合直线上的投影坐标:
其中,(x0,y0)为已知重心点的坐标,Ax+By+C=0为拟合直线的方程,(xt,yt)为重心点在拟合直线上的投影坐标。
通过上述公式,计算出多个重心点在拟合直线上的投影坐标,通过第一个获取的重心点的投影坐标和最后一个获取的重心点的投影坐标,获取重心点在拟合直线上的投影点,将第一个获取的重心点的投影点和最后一个获取的重心点的投影点连接,计算第一个重心点的投影点连接最后一个重心点的投影点而成的投影向量Vh(xh,yh),其中,(xh,yh)表示投影向量Vh的坐标。同时,计算得到投影向量后,还需计算x轴的向量Vx(xx,yy),其中,(xx,yy)表示x轴的向量Vx的坐标,本发明实施例中x轴的坐标包括但不限于(1,0),也可以为用户自定义的其他坐标,本发明实施例不做具体限定。
计算得到投影向量Vh和x轴的向量Vx,执行子步骤三。
子步骤三:计算投影向量相对于X轴向量的转角,根据转角判断人手的运动方向。
计算投影向量相对于X轴向量的转角,进一步包括:采用如下公式计算投影向量相对于X轴向量的转角:
其中,θ为投影向量相对于X轴向量的转角,Vh为多个重心点中第一个重心点的投影坐标连接最后一个重心点的投影坐标而成的投影向量,投影向量的坐标为(xh,yh),Vx为x轴的向量;
θ的正负则取决于三维空间中的Vh×Vx的z分量,采用如下公式计算z的值:
z=xh-yh
其中,z为三维空间中的Vh×Vx的分量,如果z大于零,则θ为正,反之θ为负;
在图像坐标系下,投影向量相对X轴逆时针旋转,则θ为负值,顺时针旋转,则θ为正值;图4为本发明实施例中图像坐标系下投影向量与x轴向量转角的示意图,如图4所示,箭头表示投影向量。
计算得到投影向量相对与X轴向量的转角θ后,根据转角判断人手的运动方向,进一步包括:根据转角θ的正负和取值范围判断手的运动方向。根据转角的正负和取值,就可以得到人手的运动方向是水平还是竖直,本发明实施例中包括但不限于根据下述角度范围判断人手的运动方向:
-35°<θ<35°:水平向右;
-145°<θ≤-180°或-180°≤θ-145°:水平向左;
60°<θ<150°:竖直向上;
-150°<θ<-60°:竖直向下。
用户也可以自定义其他转角范围进行判断,本发明实施例不做具体限定,之所以定义竖直方向的角度取值范围大于水平方向的角度取值范围,是因为相对来说,人更容易做出水平方向的动作。
下面举例介绍本发明实施例手势识别方法的应用,注意本例只是本发明实施例应用的一种,并非全部应用,图5为本发明实施例中手势识别方法的应用流程示意图,如图5所示:
开始手势识别,获取一帧图像,检测图像中是否存在人手,检测到人手则计算人手的重心点,否则返回重新获取一帧图像;
计算本次的重心点与上一次保存的重心点的距离是否大于获取图像的高度的10%,如果计算距离大于获取图像高度的10%,则判断连续获取重心点的次数是否超过6次,否则返回重新获取一帧图像;
判断连续获取重心点的次数超过6次,则根据重心点坐标使用最小二乘法拟合一条直线,根据重心点坐标和拟合直线计算重心点在拟合直线上的投影向量,计算投影向量相对于x轴向量的转角,根据转角判断人手的运动方向,否则返回重新获取一帧图像。
实施例2:
图6为本发明实施例中手势识别装置实施例结构示意图,如图6所示:本发明实施例还提供一种手势识别装置,包括:
获取模块1,用于获取一帧图像,计算图像中人手的重心点;
保存模块2,用于计算本次重心点与上一次保存的重心点之间的距离,判断距离是否大于预设距离阈值,当判断结果为是,则获取重心点并保存;
判断模块3,用于判断连续成功获取重心点的次数是否超过预设次数阈值,当判断结果为是,则根据连续成功获取的多个重心点的坐标判断人手的运动方向。
优选地,获取模块1,进一步用于:
采用如下公式计算重心点:
其中,image(x,y)是重心点的坐标(x,y)处的像素值,xg和yg分别是x轴方向和y轴方向的重心。
优选地,判断模块3,用于:在连续帧的图像中均成功获得重心点,或在预设周期内的预设帧的图像中均成功获得重心点。
优选地,判断模块3,进一步用于:
根据连续成功获取的多个重心点的坐标使用最小二乘法拟合一条直线;
根据连续成功获取的多个重心点的坐标和拟合直线,计算重心点的坐标在拟合直线上的投影坐标,计算多个重心点中第一个重心点的投影坐标连接最后一个重心点的投影坐标而成的投影向量以及x轴向量;
计算投影向量相对于X轴向量的转角,根据转角判断人手的运动方向。
另外,优选地,判断模块3,进一步用于:
采用如下公式计算重心点在拟合直线上的投影坐标:
其中,(x0,y0)为已知重心点的坐标,Ax+By+C=0为拟合直线的方程,(xt,yt)为重心点在拟合直线上的投影坐标;
计算投影向量相对于X轴向量的转角,进一步包括:采用如下公式计算投影向量相对于X轴向量的转角:
其中,θ为投影向量相对于X轴向量的转角,Vh为多个重心点中第一个重心点的投影坐标连接最后一个重心点的投影坐标而成的投影向量,投影向量的坐标为(xh,yh),Vx为x轴的向量;
采用如下公式计算z的值:
z=xh-yh
其中,z为三维空间中的Vh×Vx的分量,如果z大于零,则θ为正,反之θ为负;
在图像坐标系下,投影向量相对X轴逆时针旋转,则θ为负值,顺时针旋转,则θ为正值;
根据转角判断人手的运动方向,进一步包括:根据转角θ的正负和取值范围判断手的运动方向。
图6所示装置可以执行图1以及图5所示实施例的方法,实现原理和技术效果参考图1以及图6所示实施例,不再赘述。
综上所述,根据本发明实施例提供的手势识别方法及装置,通过人手的重心点的坐标判断人手的运动方向,改变了现有技术中人手运动过快,识别率低的技术缺陷,可以快速判断人手的运动方向,抗干扰性强,识别精度高,在人手快速运动时也可以使精确识别人手的运动方向,实现对手势的识别。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种手势识别方法,其特征在于,包括如下步骤:
获取一帧图像,计算所述图像中所述人手的重心点;
计算本次所述重心点与上一次保存的重心点之间的距离,判断所述距离是否大于预设距离阈值,当判断结果为是,则获取所述重心点并保存;
判断连续成功获取所述重心点的次数是否超过预设次数阈值,当判断结果为是,则根据连续成功获取的多个所述重心点的坐标判断所述人手的运动方向。
2.根据权利要求1所述的方法,其特征在于,计算所述图像中所述人手的重心点,进一步包括:
采用如下公式计算所述重心点:
其中,image(x,y)是所述重心点的坐标(x,y)处的像素值,xg和yg分别是所述本次重心点在x轴方向和y轴方向的重心。
3.根据权利要求1所述的方法,其特征在于,连续成功获取所述重心点,包括:在连续帧的图像中均成功获得所述重心点,或在预设周期内的预设帧的图像中均成功获得所述重心点。
4.根据权利要求1所述的方法,其特征在于,根据连续成功获取的多个所述重心点的坐标判断所述人手的运动方向,进一步包括:
根据连续成功获取的多个所述重心点的坐标使用最小二乘法拟合一条直线;
根据连续成功获取的多个所述重心点的坐标和拟合直线,计算所述重心点的坐标在所述拟合直线上的投影坐标,计算多个所述重心点中第一个所述重心点的投影坐标连接最后一个所述重心点的投影坐标而成的投影向量以及x轴向量;
计算所述投影向量相对于X轴向量的转角,根据所述转角判断人手的运动方向。
5.根据权利要求4所述的方法,其特征在于,计算所述重心点的坐标在所述拟合直线上的投影坐标,进一步包括:
采用如下公式计算所述重心点在所述拟合直线上的投影坐标:
其中,(x0,y0)为已知所述重心点的坐标,Ax+By+C=0为所述拟合直线的方程,(xt,yt)为所述重心点在所述拟合直线上的投影坐标;
计算所述投影向量相对于X轴向量的转角,进一步包括:采用如下公式计算所述投影向量相对于X轴向量的转角:
其中,θ为所述投影向量相对于X轴向量的转角,Vh为多个所述重心点中第一个所述重心点的投影坐标连接最后一个所述重心点的投影坐标而成的投影向量,所述投影向量的坐标为(xh,yh),Vx为x轴的向量;
采用如下公式计算z的值:
z=xh-yh
其中,z为三维空间中的Vh×Vx的分量,如果z大于零,则θ为正,反之θ为负;
在图像坐标系下,所述投影向量相对X轴逆时针旋转,则θ为负值,顺时针旋转,则θ为正值;
根据所述转角判断人手的运动方向,进一步包括:根据转角θ的正负和取值范围判断手的运动方向。
6.一种手势识别装置,其特征在于,包括:
获取模块,用于获取一帧图像,计算所述图像中所述人手的重心点;
保存模块,用于计算本次所述重心点与上一次保存的重心点之间的距离,判断所述距离是否大于预设距离阈值,当判断结果为是,则获取所述重心点并保存;
判断模块,用于判断连续成功获取所述重心点的次数是否超过预设次数阈值,当判断结果为是,则根据连续成功获取的多个所述重心点的坐标判断所述人手的运动方向。
7.根据权利要求6所述的装置,其特征在于,所述获取模块,进一步用于:
采用如下公式计算所述重心点:
其中,image(x,y)是所述重心点的坐标(x,y)处的像素值,xg和yg分别是所述本次重心点在x轴方向和y轴方向的重心。
8.根据权利要求6所述的装置,其特征在于,所述判断模块,用于:在连续帧的图像中均成功获得所述重心点,或在预设周期内的预设帧的图像中均成功获得所述重心点。
9.根据权利要求6所述的装置,其特征在于,所述判断模块,进一步用于:
根据连续成功获取的多个所述重心点的坐标使用最小二乘法拟合一条直线;
根据连续成功获取的多个所述重心点的坐标和拟合直线,计算所述重心点的坐标在所述拟合直线上的投影坐标,计算多个所述重心点中第一个所述重心点的投影坐标连接最后一个所述重心点的投影坐标而成的投影向量以及x轴向量;
计算所述投影向量相对于X轴向量的转角,根据所述转角判断人手的运动方向。
10.根据权利要求9所述的装置,其特征在于,所述判断模块,进一步用于:
采用如下公式计算所述重心点在所述拟合直线上的投影坐标:
其中,(x0,y0)为已知所述重心点的坐标,Ax+By+C=0为所述拟合直线的方程,(xt,yt)为所述重心点在所述拟合直线上的投影坐标;
计算所述投影向量相对于X轴向量的转角,进一步包括:采用如下公式计算所述投影向量相对于X轴向量的转角:
其中,θ为所述投影向量相对于X轴向量的转角,Vh为多个所述重心点中第一个所述重心点的投影坐标连接最后一个所述重心点的投影坐标而成的投影向量,所述投影向量的坐标为(xh,yh),Vx为x轴的向量;
采用如下公式计算z的值:
z=xh-yh
其中,z为三维空间中的Vh×Vx的分量,如果z大于零,则θ为正,反之θ为负;
在图像坐标系下,所述投影向量相对X轴逆时针旋转,则θ为负值,顺时针旋转,则θ为正值;
根据所述转角判断人手的运动方向,进一步包括:根据转角θ的正负和取值范围判断手的运动方向。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510964806.7A CN105912974A (zh) | 2015-12-18 | 2015-12-18 | 一种手势识别方法及装置 |
PCT/CN2016/096485 WO2017101496A1 (zh) | 2015-12-18 | 2016-08-24 | 一种手势识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510964806.7A CN105912974A (zh) | 2015-12-18 | 2015-12-18 | 一种手势识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105912974A true CN105912974A (zh) | 2016-08-31 |
Family
ID=56744327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510964806.7A Pending CN105912974A (zh) | 2015-12-18 | 2015-12-18 | 一种手势识别方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN105912974A (zh) |
WO (1) | WO2017101496A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108197596A (zh) * | 2018-01-24 | 2018-06-22 | 京东方科技集团股份有限公司 | 一种手势识别方法和装置 |
CN110754906A (zh) * | 2018-07-27 | 2020-02-07 | 深圳博科智能科技有限公司 | 一种窗帘的控制方法及智能窗帘 |
CN111709969A (zh) * | 2020-06-17 | 2020-09-25 | 济南大学 | 仿真实验中分液漏斗的操控识别装置及方法 |
CN112114666A (zh) * | 2020-08-25 | 2020-12-22 | 武汉海微科技有限公司 | 基于触摸板的动态手势识别算法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507918B (zh) * | 2020-12-16 | 2024-05-21 | 康佳集团股份有限公司 | 一种手势识别方法 |
CN113031464B (zh) * | 2021-03-22 | 2022-11-22 | 北京市商汤科技开发有限公司 | 设备控制方法、装置、电子设备及存储介质 |
CN114422762B (zh) * | 2021-12-25 | 2023-10-13 | 深圳市幕工坊科技有限公司 | 投影幕动作控制*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102053702A (zh) * | 2010-10-26 | 2011-05-11 | 南京航空航天大学 | 动态手势控制***与方法 |
CN103353935A (zh) * | 2013-07-19 | 2013-10-16 | 电子科技大学 | 一种用于智能家居***的3d动态手势识别方法 |
CN104392210A (zh) * | 2014-11-13 | 2015-03-04 | 海信集团有限公司 | 一种手势识别方法 |
US9213890B2 (en) * | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103890695B (zh) * | 2011-08-11 | 2017-10-13 | 视力移动技术有限公司 | 基于手势的接口***和方法 |
CN104571482B (zh) * | 2013-10-22 | 2018-05-29 | 中国传媒大学 | 一种基于体感识别的数字设备操控方法 |
-
2015
- 2015-12-18 CN CN201510964806.7A patent/CN105912974A/zh active Pending
-
2016
- 2016-08-24 WO PCT/CN2016/096485 patent/WO2017101496A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9213890B2 (en) * | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
CN102053702A (zh) * | 2010-10-26 | 2011-05-11 | 南京航空航天大学 | 动态手势控制***与方法 |
CN103353935A (zh) * | 2013-07-19 | 2013-10-16 | 电子科技大学 | 一种用于智能家居***的3d动态手势识别方法 |
CN104392210A (zh) * | 2014-11-13 | 2015-03-04 | 海信集团有限公司 | 一种手势识别方法 |
Non-Patent Citations (1)
Title |
---|
李俊山 等: "《数字图像处理(第二版)》", 30 November 2013 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108197596A (zh) * | 2018-01-24 | 2018-06-22 | 京东方科技集团股份有限公司 | 一种手势识别方法和装置 |
US10803304B2 (en) | 2018-01-24 | 2020-10-13 | Boe Technology Group Co., Ltd. | Gesture recognition method, device, apparatus, and storage medium |
CN110754906A (zh) * | 2018-07-27 | 2020-02-07 | 深圳博科智能科技有限公司 | 一种窗帘的控制方法及智能窗帘 |
CN111709969A (zh) * | 2020-06-17 | 2020-09-25 | 济南大学 | 仿真实验中分液漏斗的操控识别装置及方法 |
CN112114666A (zh) * | 2020-08-25 | 2020-12-22 | 武汉海微科技有限公司 | 基于触摸板的动态手势识别算法 |
Also Published As
Publication number | Publication date |
---|---|
WO2017101496A1 (zh) | 2017-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105912974A (zh) | 一种手势识别方法及装置 | |
US11481024B2 (en) | Six degree of freedom tracking with scale recovery and obstacle avoidance | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
CN107148639B (zh) | 确定跟踪目标的位置信息的方法及装置、跟踪装置及*** | |
US20200034633A1 (en) | People flow estimation device, people flow estimation method, and recording medium | |
CN110163889A (zh) | 目标跟踪方法、目标跟踪装置、目标跟踪设备 | |
CN104021571B (zh) | 一种增强用户体验的运动目标自动跟踪方法及装置 | |
CN108725440A (zh) | 前向碰撞控制方法和装置、电子设备、程序和介质 | |
CN106228112A (zh) | 人脸检测跟踪方法及机器人头部转动控制方法和机器人 | |
CN104484868B (zh) | 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法 | |
CN105718863A (zh) | 一种人脸活体检测方法、装置及*** | |
US20160171341A1 (en) | Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis | |
CN104168444B (zh) | 一种跟踪球机的目标跟踪方法及跟踪球机 | |
CN110942474B (zh) | 机器人目标跟踪方法、设备及存储介质 | |
CN106295557B (zh) | 一种人群密度估计的方法及装置 | |
CN111178170B (zh) | 一种手势识别方法和一种电子设备 | |
CN105894540A (zh) | 一种基于移动终端的上下往复移动计数方法及*** | |
CN107038899A (zh) | 一种进行飞行的方法和装置 | |
US11227407B2 (en) | Systems and methods for augmented reality applications | |
CN104766330B (zh) | 一种图像处理方法及电子设备 | |
CN113721633B (zh) | 一种基于行人轨迹预测的移动机器人路径规划方法 | |
CN110580708B (zh) | 一种快速移动检测方法、装置及电子设备 | |
CN109324737A (zh) | 一种调用目标功能的方法、装置、移动终端及存储介质 | |
CN111738085B (zh) | 实现自动驾驶同时定位与建图的***构建方法及装置 | |
CN103854026B (zh) | 一种识别方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160831 |
|
WD01 | Invention patent application deemed withdrawn after publication |