CN103136986A - 手语识别方法及*** - Google Patents

手语识别方法及*** Download PDF

Info

Publication number
CN103136986A
CN103136986A CN2012100315958A CN201210031595A CN103136986A CN 103136986 A CN103136986 A CN 103136986A CN 2012100315958 A CN2012100315958 A CN 2012100315958A CN 201210031595 A CN201210031595 A CN 201210031595A CN 103136986 A CN103136986 A CN 103136986A
Authority
CN
China
Prior art keywords
steering order
attitude
natural language
image
sign language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012100315958A
Other languages
English (en)
Other versions
CN103136986B (zh
Inventor
雷敏娟
周雷
师丹玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Taishan Sports Technology Co.,Ltd.
Original Assignee
SHENZHEN TOL TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN TOL TECHNOLOGY Co Ltd filed Critical SHENZHEN TOL TECHNOLOGY Co Ltd
Priority to CN201210031595.8A priority Critical patent/CN103136986B/zh
Publication of CN103136986A publication Critical patent/CN103136986A/zh
Application granted granted Critical
Publication of CN103136986B publication Critical patent/CN103136986B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明涉及一种手语识别方法,包括以下步骤:采集包含标记区域的图像;识别标记区域的姿态;生成所述姿态对应的控制指令;将所述控制指令转换成自然语言信息。此外,还提供了一种手语识别***。上述手语识别方法及***可以提高识别的准确率。

Description

手语识别方法及***
【技术领域】
本发明涉及人工智能领域,特别涉及一种手语识别方法及***。
【背景技术】
在日常生活中,聋哑人由于丧失了正常人的听说能力,在与他人的沟通中,通常采用手语进行交流。聋哑人通过肢体做出规范的动作来表示相应的语义。但由于大多数正常人不了解手语的含义,因此聋哑人通常只能通过手语与其他聋哑人进行交流,而与正常人的交流仍然存在障碍。
传统技术中,为了使聋哑人能够与正常人进行交流,通常使聋哑人戴上具有多个传感器的数据手套,并通过数据手套采集聋哑人肢体的行动轨迹和方位,并根据获取到的行动轨迹和方位生成具有语义的文本信息,从而将手语转换成了正常人较易理解的自然语言信息。
然而,上述手语识别方法中,数据手套体积较小,导致数据手套上的传感器的数量较少。因此,数据手套在采集肢体的行动轨迹和方位时,得到的数据不够准确,使得传统技术中手语识别方法的识别错误的错误率较大。
【发明内容】
基于此,有必要提供一种能提高准确率的手语识别方法。
一种手语识别方法,包括以下步骤:
采集包含标记区域的图像;
识别标记区域的姿态;
生成所述姿态对应的控制指令;
将所述控制指令转换成自然语言信息。
优选的,所述将所述控制指令转换成自然语言信息的步骤包括:
将所述控制指令排列成控制指令序列,根据所述控制指令序列生成自然语言信息。
优选的,所述根据所述控制指令序列生成自然语言信息的步骤包括:
计算所述控制指令序列的特征值,根据所述预设的特征值与自然语言信息的映射关系生成自然语言信息。
优选的,所述计算所述控制指令序列的特征值的步骤之前还包括:
将所述控制指令序列中重复的控制指令去除。
优选的,所述计算所述控制指令序列的特征值的步骤之前还包括:
将所述控制指令序列中与相邻控制指令差别大于阈值的控制指令去除。
优选的,所述将所述控制指令排列成控制指令序列的步骤具体为:
将所述控制指令按照生成的顺序排列成队列,当检测到队列末尾有连续预设个数的相同的控制指令时,排列完毕,并根据所述队列生成控制指令序列。
优选的,所述将所述控制指令转换成自然语言信息的步骤之后还包括:
通过文本和/或音频的方式展示所述自然语言信息。
此外,还有必要提供一种能提高准确率的手语识别***。
一种手语识别***,包括以下模块:。
图像采集模块,用于采集包含标记区域的图像;
姿态识别模块,用于识别标记区域的姿态;
指令生成模块,用于生成所述姿态对应的控制指令;
指令转换模块,用于将所述控制指令转换成自然语言信息。
优选的,所述指令转换模块还用于将所述控制指令排列成控制指令序列,根据所述控制指令序列生成自然语言信息。
优选的,所述指令转换模块还用于计算所述控制指令序列的特征值,根据所述预设的特征值与自然语言信息的映射关系生成自然语言信息。
优选的,所述指令转换模块还用于将所述控制指令序列中重复的控制指令去除。
优选的,所述指令转换模块还用于将所述控制指令序列中与相邻控制指令差别大于阈值的控制指令去除。
优选的,所述指令转换模块还用于将所述控制指令按照生成的顺序排列队列,当检测到队列末尾有连续预设个数的相同的控制指令时,排列完毕,并根据所述队列生成控制指令序列。
优选的,还包括信息展示模块,用于通过文本和/或音频的方式展示所述自然语言信息。
上述手语识别方法及***,根据采集到的包含标记区域的图像识别出标记区域所产生的姿态,并生成姿态对应的控制指令,然后将该控制指令转换成正常人容易理解的自然语言信息。由于通过获取肢体动作的图像来判断肢体动作的运动轨迹和姿态,因此,对整个肢体动作的过程均有记录,从而避免了因为缺乏传感器而漏掉某个动作或姿态的情况,从而提高了识别手语时的准确率。
【附图说明】
图1为本发明中控制浏览网页的方法的流程示意图;
图2为一个实施例中步骤S20的流程示意图;
图3为一个实施例中交互设备的结构示意图;
图4为一个实施例中构建坐标系的示意图;
图5为另一个实施例中的交互设备的结构示意图;
图6为另一个实施例中的交互设备的结构示意图;
图7为另一个实施例中步骤S20的流程示意图;
图8为另一个实施例中构建坐标系的示意图;
图9为一个实施例中步骤S30的流程示意图;
图10为另一个实施例中步骤S30的流程示意图;
图11为一个实施例中手语识别******的结构示意图;
图12为一个实施例中姿态识别模块的结构示意图;
图13为另一个实施例中姿态识别模块的结构示意图;
图14为一个实施例中指令生成模块的结构示意图;
图15为另一个实施例中指令生成模块的结构示意图;
图16为另一个实施例中手语识别***的结构示意图。
【具体实施方式】
下面结合具体的实施例及附图对技术方案进行详细的描述。
在一个实施例中,如图1所示,一种手语识别方法,包括以下步骤:
步骤S10,采集包含标记区域的图像。
本实施例中,标记区域是采集的图像中的一个区域,该区域可由交互设备形成。
具体的,在一个实施例中,交互设备可以是手持装置,可将手持装置的一部分或全部设定为指定的颜色或形状,采集手持装置的图像,图像中的手持装置中的该指定颜色或形状的部分形成标记区域。另外,交互设备还可以是带标记的手持装置,即在手持装置上附带指定颜色或形状的标记(如反光材料),采集手持装置的图像,图像中的手持装置上所附带的指定颜色或形状的标记形成标记区域。
在另一个实施例中,交互设备还可以是人体部位(例如人脸、手掌、手臂等),采集人体部位的图像,图像中的人体部位形成标记区域。另外,交互设备还可以是带标记的人体部位,即在人体部位上附带指定颜色或形状的标记(如反光材料),采集人体部位的图像时,图像中的该指定颜色或形状的标记形成标记区域。
步骤S20,识别标记区域的姿态。
具体的,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标产生标记区域的姿态。所谓姿态,是指标记区域在图像中所形成的姿势状态。进一步的,在二维图像中,姿态为二维图像中的标记区域与预设位置之间的角度,即姿态角;在三维图像中,姿态为二维图像中的标记区域与预设位置之间的多个姿态角所组成的矢量,即姿态向量。本发明中说的“标记区域产生的姿态”,“标记区域的姿态”、“姿态”都是指所述姿态,也就是不同实施例的姿态角与姿态向量。
步骤S30,生成姿态对应的控制指令。
本实施例中,预先设定标记区域的姿态与控制指令之间的映射关系,并将该映射关系存储在数据库中。在识别出标记区域的姿态后,可根据识别出的姿态从数据库中查找与姿态对应的控制指令。
步骤S40,将控制指令转换成自然语言信息。
自然语言信息即正常人容易理解的语言信息,如中文、英文、拉丁文等。可预先设置控制指令与自然语言信息的映射表,并存储在数据库中,然后通过在数据库中查询控制指令来获取与其对应的自然语言信息。
例如,预设的控制指令与自然语言信息的映射表可如表1所示:
表1
  控制指令   自然语言信息
  command_cir   圆
  command_heart   爱
  command_ok   好的
  ......   ......
以人体的手指作为交互设备,当用户的手指围成了一个圆,则对应生成了表示圆形的控制指令command_cir,然后在数据库中查询得到对应的自然语言信息为“圆”。当用户的手指围成一个心形时,则对应生成控制指令command_heart,然后在数据库中查询得到对应的自然语言信息为“爱”。当用户的食指和拇指之间相连,另外三根手指展开做出OK状时,则对应生成控制指令command_ok,然后在数据库中查询可得对应的自然语言信息为“好的”。
在一个实施例中,可将控制指令排列成控制指令序列,根据控制指令序列生成自然语言信息。
先通过每隔预设的采样间隔T执行步骤S10、步骤S20、步骤S30来生成多个控制指令。再将生成的控制指令按照生成的顺序排列成控制指令序列,并根据控制指令序列生成自然语言信息。
例如,采用用户的手指和手臂作为交互设备时,每隔0.1秒捕捉用户的手指和手臂的姿态,并生成控制指令用于标识该时刻的姿态。当在一定时间内生成了多个控制指令后,控制指令按照生成的顺序组成的序列则表示了用户的手指和手臂的运行轨迹。
进一步的,可计算控制指令序列的特征值,根据预设的特征值与自然语言信息的映射关系生成自然语言信息。
控制指令中包含用于表示姿态信息的姿态部分和用于表示该姿态在图像中的坐标信息的坐标部分。当以手指和手臂作为交互设备时,控制指令的姿态部分则可表示手指和手臂的姿态构成的形状或抽象的矢量图形,如五指展开状、手指围成的环状。控制指令的坐标部分则表示了手指或手臂围成的形状在图像上的位置。当图像为二维图像时,坐标为二维坐标。当图像为三维图像时,坐标为三维坐标。
特征值用于表示具有一定相似性的控制指令序列所共有的特征。可采用姿态特征值表示控制指令序列中的姿态部分的变化特征,采用坐标特征值表示控制指令序列中的坐标部分的变化特征。然后由姿态特征值和坐标特征值组成控制指令序列的特征值。
特征值与自然语言信息具有预设的映射关系。例如,可预先将特征值2(1F1L)对应自然语言“谢谢”。该特征值2(1F1L)基于控制指令序列的姿态部分的变化,表示由拇指伸直(由特征值中的1F表示)变成拇指弯曲(由特征值中的1L表示),并弯曲了两次(用括号乘以2表示)。可预先将特征值5F_y-down对应自然语言“按”。该特征值5F_y-down基于控制指令序列中的坐标部分的变化,表示手掌(由特征值中的5F表示)从上至下按压(由特征值中的y-down表示)。进一步的,先将控制指令序列中重复的控制指令去除,然后再计算控制指令序列的特征值。去除重复的控制指令可减少计算量。
进一步的,先将控制指令序列中与相邻控制指令差别大于阈值的控制指令去除,然后再计算控制指令序列的特征值。当预设的采样间隔较小时,若控制指令序列中的某个控制指令的姿态部分或坐标部分与相邻的控制指令差别大于阈值时,则判定该控制指令为错误的控制指令。错误指令将被过滤出控制指令序列,而不会被用于计算控制指令序列的特征值。
例如,用户采用手指作为输入装置时,若获取到的控制指令序列为:[3F(0,0),3F(1,0),3F(2,0),2F(3,0),3F(4,0),3F(5,0)]。其中姿态部分3F表示3根手指的姿态,2F表示2根手指的姿态,坐标部分(0,0)-(5,0)表示手指姿态处于捕获的图像中的坐标。该控制指令序列用于表示用户的三根手指水平平移形成的轨迹,每个控制指令都是该轨迹的采样点。其中,可能是由于用户在移动过程中,有手指并拢的情况,控制指令2F(3,0)与相邻的3F(2,0)、3F(4,0)在手指的数目(控制指令的姿态部分)上差距较大,因此被判定为错误的控制指令,且被移出控制指令序列。当某个控制指令与相邻的控制指令有较大差别时,通常是因为捕获了用户的不规范的手语手势,或者是由于交互设备在移动时被遮挡,不能完全获取其形状而造成。例如,聋哑手语中某些手势需要两手交替移动,在移动中,可能出现遮挡的情况,因此去掉与相邻控制指令差距大于阈值(形状不同或者坐标距离大于阈值)的控制指令,可以使得特征值计算的更加准确。
计算控制指令序列的特征值时,先计算控制指令序列中的控制指令的的姿态特征值,然后根据姿态特征值将控制指令序列分段,分段后的控制指令子序列中的控制指令具有相同姿态特征值。然后根据控制指令子序列中的控制指令的坐标部分描述的坐标的单调性、到图像中某一参考坐标的距离的方差来计算控制指令子序列的坐标特征值。然后将所有控制指令子序列的姿态特征值和坐标特征值整合成控制指令序列的特征值。
例如,以手指为交互装置,用户做出以下动作:
伸出一根手指从左至右平移,移到一定位置后伸展五指做四分之一圆周运动,最后定格,且弯曲食指和拇指,将食指和拇指指尖相碰形成OK状手势。
获取到的控制指令序列为:[1F(0,0),1F(1,0),1F(2,0),1F(3,0),5F(2.5,1.5),5F(1.5,2.5),5F(0,3),OK(0,3),OK(0,3),OK(0,3)]。其中1F为1根手指的姿态特征值,5F为5根手指的姿态特征值,OK表示OK状手势的姿态特征值,括号内数字表示姿态在图像中的坐标值。去掉重复的控制指令且与相邻的控制指令差异大于阈值的控制指令后,再根据姿态特征值的不同将控制指令序列分为三个子控制指令序列:
子序列1:[1F(0,0),1F(1,0),1F(2,0),1F(3,0)]。
子序列2:[5F(2.5,1.5),5F(1.5,2.5),5F(0,3)]。
子序列3:[OK(0,3)]。
子序列1的坐标特征值为x-right,x-right表示子序列1的坐标的单调性为横坐标递增(x轴),纵坐标不变(y轴)。子序列2的坐标特征值为q-cir,q-cir表示子序列2的坐标构成的轨迹到参考点坐标(0,0)的方差小于阈值,即轨迹为到圆心(0,0)的四分之一个圆。子序列3的坐标特征值为hold,即表示最后的定格姿态。
然后将子序列1、子序列2以及子序列3的姿态特征值和坐标特征值整合,得到控制指令序列的特征值为:1F_x-right5F_q-cirOK_hold。其中_和表示分隔符,用于区分姿态特征值和坐标特征值。
得到控制指令序列的特征值后,再根据预设的特征值与自然语言的映射关系获取与控制指令序列的特征值对应的自然语言。如上例中,1F_x-right5F_q-cirOK_hold对应的自然语言为“完美”,则用户做出的伸出一根手指从左至右平移,移到一定位置后伸展五指做四分之一圆周运动,最后定格,且弯曲食指和拇指,将食指和拇指指尖相碰形成OK状手势的手语即被转换成了自然语言“完美”。
需要说明的是,此处的手语并不限于标准的聋哑手语,也可以是用户自定义的手语。手语与自然语言的对应关系取决于预设的特征值与自然语言的映射关系。
进一步的,将控制指令排列成控制指令序列时,可将控制指令按照生成的顺序排列成队列,当检测到队列末尾有连续预设个数的相同的控制指令时,排列完毕,并根据队列生成控制指令序列。
预先设置缓存区,每当生成一个控制指令则将该控制指令按顺序存储到缓存区中,形成队列。同时,检测该缓存区,若队列末尾有连续预设个数的相同的控制指令时,如上例中的控制指令OK(0,3),队列排列完毕,然后从缓存区中取出该队列形成控制指令序列。
通过连续预设个数的相同的控制指令来截取控制指令序列,使得在区分多个手语手势(类似英语单词之间的停顿)时更加方便,从而避免了多手势时的错误识别。
在一个实施例中,将控制指令转换成自然语言信息之后,通过文本和/或音频的方式展示自然语言信息。
可通过显示屏将自然语言信息以文字的形式展示,也可以通过音频设备将自然语言信息播放出来。
例如,在将控制指令转化成自然语言信息之后,将自然语言信息编码,并向远程终端(手机、电脑、电视等)发该编码,远程终端接收到该编码后先将该编码解码成自然语言信息,然后通过显示屏以文本的形式显示该自然语言信息或者通过音频设备以语音的形式播放该自然语言信息。
通过文本和/或音频的方式展示自然语言信息,可以方便他人理解自然语言信息。将自然语言信息编码并通过电话网或互联网或电视网发送到远程终端,然后再由远程终端通过解码展示该自然语言信息,使得聋哑人可与不懂手语的正常人实现远程通话,从而方便了聋哑人与正常人的沟通。
如图2所示,在一个实施例中,所采集到的包含标记区域的图像为二维图像,上述步骤S20的具体过程包括:
步骤S202,提取图像中与预设颜色模型匹配的像素,对获取的像素进行连通域检测,提取检测得到的连通域中的标记区域。
具体的,可通过摄像机采集包含标记区域的图像,得到的图像为二维可见光图像。优选的,还可在摄像机的镜头前加入红外滤光片,用于滤去除红外波段的其他波段光线,则采集的图像为二维红外图像。由于可见光图像中,场景中的物体会对标记区域的识别形成干扰,而红外图像因滤除掉了可见光信息,干扰较少,因此二维红外图像更有利于提取标记区域。
本实施例中,预先建立颜色模型。例如标记区域的色彩为红色,则预先建立红色模型,该模型中像素的RGB值分量可在200到255之间,G、B分量可接近于零;获取采集的图像中满足该红色模型的RGB值的像素即为红色像素。另外,当采集的图像中由人体部位形成标记区域时,则可获取采集的图像中与预设肤色模型匹配的像素。对获取的像素进行连通域检测,得到多个连通域,连通域是若个连续的像素组成的集合。
本实施例中,由于标记区域的大小和形状应大致是固定不变的,在对获取的像素进行连通域检测时,可计算得到获取的像素中的所有连通域的周长和/或面积。具体的,连通域的周长可为连通域边界像素的个数,连通域的面积可为连通域中的全部像素的个数。进一步的,可将获取的连通域的周长和/或面积与预设标记区域的周长和/或面积进行对比,获取满足预设标记区域的周长和/或面积的连通域即为标记区域。优选的,还可将周长的平方与面积的比值作为判断准则,连通域的该比值满足预设标记区域的该比值,则该连通域为标记区域。
步骤S204,获取标记区域中的像素坐标,根据该像素坐标产生标记区域姿态。
具体的,在一个实施例中,如图3所示,交互设备包括手持部分和附着于手持部分的标记,其中,标记可为长条形状的反光材料,优选的,可以为椭圆或矩形形状。在其他实施例中,交互设备还可为人体部位,如脸、手掌、手臂等,则采集到的图像中的标记区域即为人体部位的区域。
本实施例中,标记区域为一个连续区域,则根据像素坐标产生标记区域的姿态的过程为:计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态,该标记区域的姿态为一个姿态角。
具体的,如图4所示,构建二维图像坐标系,对于该坐标系上的两个点A(u1,v1)和B(u2,v2),其形成的姿态角则为斜率的反正切,即arctan((v2-v1)/(u2-u1))。具体的,本实施例中,计算提取的标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,该特征向量的方向即为标记区域长轴所在直线的方向。如图4所示,标记区域长轴所在直线方向为A、B两点所在直线的方向,设特征向量为[dir_u,dir_v]T,其中,dir_u描述标记区域长轴的方向在u轴上的投影,其绝对值正比于从A指向B的向量在u坐标轴方向上的投影(即u2-u1);dir_v描述标记区域长轴的方向在v轴上的投影,其绝对值正比于从A指向B的向量在v坐标轴方向上的投影(即v2-v1)。若dir_u或dir_v小于0,则修正为[-dir_u,-dir_v]T,则标记区域的姿态角为:arctan(dir_v/dir_u)。
在另一个实施例中,标记区域包括第一连续区域和第二连续区域,则根据所述像素坐标产生标记区域的姿态的具体过程为:根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标产生标记区域的姿态。具体的,在一个实施例中,交互设备包括手持部分和附着在手持部分的两个标记。如图5所示,标记为两个,分别附着在手持部分前端,标记的形状可以为椭圆形或矩形。优选的,标记可以为位于手持部位前端的两个圆点。如图6所示,可将标记设置在手持部分的两端。在其他实施例中,还可将标记设置在人体部位上,例如设置在人脸、手掌或手臂上。应当说明的是,所设置的两个标记可以大小、形状、颜色等特征上不一致。
本实施例中,提取的标记区域包括两个连续区域,分别为第一连续区域和第二连续区域。进一步的,根据像素坐标计算这两个连续区域的重心。具体的,计算连续区域中的全部像素坐标的平均值,所得到的像素坐标即为连续区域的重心。如图4所示,计算得到的两个连续区域的重心分别为A(u1,v1)和B(u2,v2),则标记区域的姿态角为斜率的反正切,即arctan((v2-v1)/(u2-u1))。
在另一个实施例中,所采集的图像可以为三维图像。具体的,可利用传统的立体视觉***(由两台空间位置已知的摄像机及相关数据处理设备组成)、结构光***(右一台摄像机、一台光源以及相关数据处理设备组成)或TOF(timeof flight,飞行时间)深度相机采集三维图像(即三维深度图像)。
本实施例中,如图7所示,步骤S20的具体过程包括:
步骤S210,对图像进行分割,提取该图像中的连通域,计算连通域的属性值,将连通域的属性值与预设的标记区域属性值进行对比,该标记区域为符合该预设的标记区域属性值的连通域。
具体的,当三维深度图像中两个相邻的像素深度相差小于预先设定的阈值时,例如5厘米,则认为两个像素连通,对整个图像进行连通域检测,可得到包含标记连通域的一系列连通域。
本实施例中,连通域的属性值包括连通域的尺寸和形状。具体的,计算连通域的尺寸/形状,与交互设备上的标记的尺寸/形状进行对比,得到符合标记的尺寸/形状的连通域即为标记区域的连通域(标记区域)。以矩形标记为例,即交互设备上的标记在采集的图像中为矩形,预先设定好标记的长度和宽度,计算连通域对应的物理区域的长度和宽度,该长度和宽度与标记的长度和宽度越接近,则连通域与标记区域越相似。
进一步的,计算连通域对应的物理区域的长度和宽度的过程如下:计算连通域像素的三维坐标的协方差矩阵,采用如下公式计算连通域对应的物理区域的长度和宽度:
Figure BDA0000135454020000121
其中,k为预先设定的系数,例如设为4,当λ为协方差矩阵最大特征值时,则l为连通域的长度,当λ为协方差矩阵第二大的特征值时,则l为连通域的宽度。
进一步的,还可预先设定矩形标记的长宽比,例如长宽比为2,则连通域对应的物理区域的长宽比越接近于预设设定的矩形标记的长宽比,则连通域与标记区域越相似,具体的,采用如下公式计算连通域对应的物理区域的长宽比:
Figure BDA0000135454020000122
其中,r为连通域的长宽比,λ0为协方差矩阵的最大特征值,λ1为协方差矩阵的第二大特征值。
步骤S220,获取标记区域中的像素坐标,根据该像素坐标产生标记区域的姿态。
具体的,本实施例中,标记区域的姿态为姿态向量。如图8所示,构建三维图像坐标系,该坐标系为右手坐标系。在该坐标系中,设空间向量OP,P在平面XOY的投影为p,则用极坐标表示向量OP的姿态向量为[α,θ]T,α为角XOp,即X轴到Op角,取值范围为0到360度,θ为角pOP,即OP与XOY平面的夹角,取值范围为-90度到90度。设该坐标系中的空间射线上的两点为A(x1,y1,z1)和B(x2,y2,z2),则这两点的姿态向量[α,θ]T可用如下公式唯一确定:
cos ( α ) = x 2 - x 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2
sin ( α ) = y 2 - y 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2 - - - ( 1 )
θ = arctan ( z 2 - z 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2 ) - - - ( 2 )
本实施例中,提取标记区域后,计算得到标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,并将该特征向量转换为姿态向量。具体的,设得到的姿态向量为[dirx,diry,dirz]T,其中,dirx表示两点在x轴方向上的距离,diry表示两点在y轴方向上的距离,dirz表示两点在z轴方向上的距离。可认为该姿态向量描述的射线上有两个点,即(0,0,0)和
Figure BDA0000135454020000131
即射线从原点触发,指向(dirx,diry,dirz),则姿态角需满足上述公式(1)和(2),令上述公式(1)和(2)中的x1=0,y1=0,z1=0,x2=dirx,y2=diry,z2=dirz,即可得到姿态向量[α,θ]T
在一个实施例中,标记区域为一个连续区域,则根据像素坐标产生标记区域的姿态的过程为:计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态。如上所述,该标记区域的姿态为一个姿态向量。
在另一个实施例中,标记区域包括第一连续区域和第二连续区域,则根据所述像素坐标产生标记区域的姿态的具体过程为:根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标计算标记区域的姿态。如图8所示,本实施例中,标记区域中的像素坐标为三维坐标,具体的,可根据计算得到的两个连续区域的重心的像素坐标产生标记区域的姿态,该姿态为一个姿态向量。
在一个实施例中,在识别标记区域的姿态的步骤之前还可包括:判断采集的图像为二维图像还是三维图像的步骤。具体的,若采集的图像为二维图像,则执行上述步骤S202至步骤S204,若采集的图像为三维图像,则执行上述步骤S210至S220。
如图9所示,在一个实施例中,上述步骤S30的具体过程包括:
步骤S302,获取当前帧图像中的该标记区域的姿态。
如上所述,步骤S302中获取的姿态可以是当前帧的二维图像中的标记区域的姿态(即姿态角),也可以是当前帧的三维深图像中的标记区域的姿态(即姿态向量)。本实施例中,预先设定了姿态与控制指令之间的映射关系。该姿态也可称为绝对姿态。
步骤S304,根据预设的姿态与控制指令之间的映射关系生成与该姿态对应的控制指令。
例如,控制指令为鼠标左键指令和右键指令。以二维图像为例,姿态角的取值范围为-180度到180度。可预先设定当前帧图像中的姿态角在(a,b)的范围内,则触发左键指令,当前帧图像中的姿态角在(c,d)的范围内,则触发右键指令。其中,a、b、c、d都为预先设定的角度,满足a<b,c<d,且集合[a,b]和集合[c,d]的交集为空。
另外,在三维图像中,所识别出的姿态包含两个姿态角,可以使用其中的一个姿态角来获取控制指令,也可以使用两个姿态角来获取控制指令。使用其中一个姿态角的方法原理与二维图像类似,在此则不再赘述。使用两个姿态角时,可设置若两个姿态角均在预先设定的指令触发范围内时,才触发控制指令。
如图10所示,在另一个实施例中,采集的包含标记区域的图像为图像序列,上述步骤S30的具体过程包括:
步骤S310,获取当前帧图像中的该标记区域的姿态与上一帧图像中的该标记区域的姿态之间的相对姿态。
本实施例中,可实时采集由多个包含标记区域的图像组成的图像序列。如上所述,步骤S310中获取的姿态可以是当前帧图像和上一帧图像中的标记区域的姿态角,也可以是当前帧图像和上一帧图像中的标记区域的姿态向量。当前帧图像中的姿态与上一帧图像中的姿态之间的相对姿态为两者的差值。
步骤S320,根据预设的相对姿态与控制指令之间的映射关系生成与该相对姿态对应的控制指令。
例如,以二维图像为例,相对姿态为相对姿态角,可预先设定当前帧图像的姿态角比上一帧的姿态角增加大于30度,即相对姿态角大于30度时,则触发鼠标的滚轮逆时针滚动的指令,当前帧图像的姿态角比上一帧的姿态角减少大于40度时,即相对姿态角小于-40度时,则触发鼠标的滚轮顺时针滚动的指令。三维图像的原理与其类似,在此则不再赘述。
在三维图像中,所识别出的姿态包含两个姿态角,可以使用其中的一个姿态角来获取控制指令,也可以使用两个姿态角来获取控制指令。使用其中一个姿态角的方法原理与二维图像类似,在此则不再赘述。使用两个姿态角时,可设置若两个姿态角变化均满足预设条件时,例如第一个姿态角变化大于预先设定的第一阈值,第二个姿态角变化大于预先设定的第二阈值,则触发控制指令。
在一个实施例中,如图11所示,一种控制浏览网页的***,包括图像采集模块10、姿态识别模块20、指令生成模块30和指令转换模块40,其中:
图像采集模块10用于采集包含标记区域的图像。
本实施例中,标记区域是采集的图像中的一个区域,该区域可由交互设备形成。具体的,在一个实施例中,交互设备可以是手持装置,可将手持装置的一部分或全部设定为指定的颜色或形状,采集手持装置的图像,图像中的手持装置中的该指定颜色或形状的部分形成标记区域。另外,交互设备还可以是带标记的手持装置,即在手持装置上附带指定颜色或形状的标记(如反光材料),采集手持装置的图像,图像中的手持装置上所附带的指定颜色或形状的标记形成标记区域。
在另一个实施例中,交互设备还可以是人体部位(例如人脸、手掌、手臂等),采集人体部位的图像,图像中的人体部位形成标记区域。另外,交互设备还可以是带标记的人体部位,即在人体部位上附带指定颜色或形状的标记(如反光材料),采集人体部位的图像时,图像中的该指定颜色或形状的标记形成标记区域。
姿态识别模块20用于识别标记区域的姿态。
具体的,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标获取标记区域的姿态。所谓姿态,是指标记区域在图像中所形成的姿势状态。进一步的,在二维图像中,姿态为二维图像中的标记区域与预设位置之间的角度,即姿态角;在三维图像中,姿态为二维图像中的标记区域与预设位置之间的多个姿态角所组成的矢量,即姿态向量。本发明中说的“标记区域产生的姿态”,“标记区域的姿态”都是指所述姿态,也就是不同实施例的姿态角与姿态向量。
指令生成模块30用于生成姿态对应的控制指令。
本实施例中,预先设定标记区域的姿态与控制指令之间的映射关系,并将该映射关系存储在数据库(图中未示出)中。在识别出标记区域的姿态后,指令生成模块30可用于根据姿态识别模块20识别出的姿态从数据库中查找与姿态对应的控制指令。
指令转换模块40,用于将控制指令转换成自然语言信息。
自然语言信息即正常人容易理解的语言信息,如中文、英文、拉丁文等。可预先设置控制指令与自然语言信息的映射表,并存储在数据库中,然后通过在数据库中查询控制指令来获取与其对应的自然语言信息。
例如,预设的控制指令与自然语言信息的映射表可如表2所示:
表2
  控制指令   自然语言信息
  command_cir   圆
  command_heart   爱
  command_ok   好的
  ......   ......
以人体的手指作为交互设备,当用户的手指围成了一个圆,则对应生成了表示圆形的控制指令command_cir,然后在数据库中查询得到对应的自然语言信息为“圆”。当用户的手指围成一个心形时,则对应生成控制指令command_heart,然后在数据库中查询得到对应的自然语言信息为“爱”。当用户的食指和拇指之间相连,另外三根手指展开做出OK状时,则对应生成控制指令command_ok,然后在数据库中查询可得对应的自然语言信息为“好的”。
在一个实施例中,指令转换模块40还可用于将控制指令排列成控制指令序列,根据控制指令序列生成自然语言信息。
可预设采样间隔T,每隔采样间隔T则生成多个控制指令,然后将生成的控制指令按照生成的顺序排列成控制指令序列,然后可根据控制指令序列生成自然语言信息。
例如,可采用用户的手指和手臂作为交互设备,然后每隔0.1秒捕捉用户的手指和手臂的姿态,并生成控制指令用于标识该时刻的姿态。当在一定时间内生成了多个控制指令后,控制指令按照生成的顺序组成的序列则表示了用户的手指和手臂的运行轨迹。
进一步的,指令转换模块40还可用于计算控制指令序列的特征值,根据预设的特征值与自然语言信息的映射关系生成自然语言信息。
控制指令中可包含两部分信息,一部分为用于表示姿态的信息姿态部分,另一部分则表示该姿态在图像中的坐标信息的坐标部分。当以手指和手臂作为交互设备时,控制指令的姿态部分则可表示手指和手臂的姿态构成的形状或抽象的矢量图形,如五指展开状、手指围成的环状。控制指令的坐标部分则表示了手指或手臂围成的形状在图像上的位置。当图像为二维图像时,坐标为二维坐标。当图像为三维图像时,坐标为三维坐标。
特征值用于表示具有一定相似性的控制指令序列所共有的特征。可采用姿态特征值表示控制指令序列中的姿态部分的变化特征,采用坐标特征值表示控制指令序列中的坐标部分的变化特征。然后由姿态特征值和坐标特征值组成控制指令序列的特征值。
特征值与自然语言信息具有预设的映射关系。例如,可预先将特征值2(1F1L)对应自然语言“谢谢”。该特征值2(1F1L)基于控制指令序列的姿态部分的变化,表示由拇指伸直(由特征值中的1F表示)变成拇指弯曲(由特征值中的1L表示),并弯曲了两次(用括号乘以2表示)。可预先将特征值5F_y-down对应自然语言“按”。该特征值5F_y-down基于控制指令序列中的坐标部分的变化,表示手掌(由特征值中的5F表示)从上至下按压(由特征值中的y-down表示)。
进一步的,指令转换模块40还用于先将控制指令序列中重复的控制指令去除,然后再计算控制指令序列的特征值。去除重复的控制指令可减少计算量。
进一步的,指令转换模块40还用于先将控制指令序列中与相邻控制指令差别大于阈值的控制指令去除,然后再计算控制指令序列的特征值。当预设的采样间隔较小时,若控制指令序列中的某个控制指令的姿态部分或坐标部分与相邻的控制指令差别大于阈值时,则判定该控制指令为错误的控制指令。错误指令将被过滤出控制指令序列,而不会被用于计算控制指令序列的特征值。
例如,用户采用手指作为输入装置时,若获取到的控制指令序列为:[3F(0,0),3F(1,0),3F(2,0),2F(3,0),3F(4,0),3F(5,0)]。其中姿态部分3F表示3根手指的姿态,2F表示2根手指的姿态,坐标部分(0,0)-(5,0)表示手指姿态处于捕获的图像中的坐标。该控制指令序列用于表示用户的三根手指水平平移形成的轨迹,每个控制指令都是该轨迹的采样点。其中,可能是由于用户在移动过程中,有手指并拢的情况,控制指令2F(3,0)与相邻的3F(2,0)、3F(4,0)在手指的数目(控制指令的姿态部分)上差距较大,因此被判定为错误的控制指令,且被移出控制指令序列。
当某个控制指令与相邻的控制指令有较大差别时,通常是因为捕获了用户的不规范的手语手势,或者是由于交互设备在移动时被遮挡,不能完全获取其形状而造成。例如,聋哑手语中某些手势需要两手交替移动,在移动中,可能出现遮挡的情况,因此去掉与相邻控制指令差距大于阈值(形状不同或者坐标距离大于阈值)的控制指令,可以使得特征值计算的更加准确。
计算控制指令序列的特征值时,指令转换模块40还用于计算控制指令序列中的控制指令的姿态特征值,然后根据姿态特征值将控制指令序列分段,分段后的控制指令子序列中的控制指令具有相同姿态特征值。然后根据控制指令子序列中的控制指令的坐标部分描述的坐标的单调性、到图像中某一参考坐标的距离的方差来计算控制指令子序列的坐标特征值。然后将所有控制指令子序列的姿态特征值和坐标特征值整合成控制指令序列的特征值。
例如,以手指为交互装置,用户做出以下动作:
伸出一根手指从左至右平移,移到一定位置后伸展五指做四分之一圆周运动,最后定格,且弯曲食指和拇指,将食指和拇指指尖相碰形成OK状手势。
获取到的控制指令序列为:[1F(0,0),1F(1,0),1F(2,0),1F(3,0),5F(2.5,1.5),5F(1.5,2.5),5F(0,3),OK(0,3),OK(0,3),OK(0,3)]。其中1F为1根手指的姿态特征值,5F为5根手指的姿态特征值,OK表示OK状手势的姿态特征值,括号内数字表示姿态在图像中的坐标值。去掉重复的控制指令且与相邻的控制指令差异大于阈值的控制指令后,可根据姿态特征值的不同将控制指令序列分为三个子控制指令序列:
子序列1:[1F(0,0),1F(1,0),1F(2,0),1F(3,0)]。
子序列2:[5F(2.5,1.5),5F(1.5,2.5),5F(0,3)]。
子序列3:[OK(0,3)]。
子序列1的坐标特征值为x-right,x-right表示子序列1的坐标的单调性为横坐标递增(x轴),纵坐标不变(y轴)。子序列2的坐标特征值为q-cir,q-cir表示子序列2的坐标构成的轨迹到参考点坐标(0,0)的方差小于阈值,即轨迹为到圆心(0,0)的四分之一个圆。子序列3的坐标特征值为hold,即表示最后的定格姿态。
然后指令转换模块40将子序列1、子序列2以及子序列3的姿态特征值和坐标特征值整合,得到控制指令序列的特征值为:1F_x-right5F_q-cirOK_hold。其中_和表示分隔符,用于区分姿态特征值和坐标特征值。
得到控制指令序列的特征值后,再根据预设的特征值与自然语言的映射关系获取与控制指令序列的特征值对应的自然语言。如上例中,1F_x-right5F_q-cirOK_hold对应的自然语言为“完美”,则用户做出的伸出一根手指从左至右平移,移到一定位置后伸展五指做四分之一圆周运动,最后定格,且弯曲食指和拇指,将食指和拇指指尖相碰形成OK状手势的手语即被转换成了自然语言“完美”。
需要说明的是,此处的手语并不限于标准的聋哑手语,也可以是用户自定义的手语。手语与自然语言的对应关系取决于预设的特征值与自然语言的映射关系。
进一步的,将控制指令排列成控制指令序列时,指令转换模块40还可用于将控制指令按照生成的顺序排列成队列,当检测到队列末尾有连续预设个数的相同的控制指令时,排列完毕,并根据队列生成控制指令序列。
预先设置缓存区,每当生成一个控制指令则将该控制指令按顺序存储到缓存区中,形成队列。同时,检测该缓存区,若队列末尾有连续预设个数的相同的控制指令时,如上例中的控制指令OK(0,3),队列排列完毕,然后从缓存区中取出该队列形成控制指令序列。
通过连续预设个数的相同的控制指令来截取控制指令序列,使得在区分多个手语手势(类似英语单词之间的停顿)时更加方便,从而避免了多手势时的错误识别。
在一个实施例中,如图16所示,手语识别***还包括信息展示模块50,用于在将控制指令转换成自然语言信息之后,通过文本和/或音频的方式展示自然语言信息。
信息展示模块50还用于通过显示屏将自然语言信息以文字的形式展示,也可以通过音频设备将自然语言信息播放出来。
例如,在将控制指令转化成自然语言信息之后,将自然语言信息编码,并向远程终端(手机、电脑、电视等)发该编码,远程终端接收到该编码后先将该编码解码成自然语言信息,然后通过显示屏以文本的形式显示该自然语言信息或者通过音频设备以语音的形式播放该自然语言信息。
通过文本和/或音频的方式展示自然语言信息,可以方便他人理解自然语言信息。将自然语言信息编码并通过电话网或互联网或电视网发送到远程终端,然后再由远程终端通过解码展示该自然语言信息,使得聋哑人可与不懂手语的正常人实现远程通话,从而方便了聋哑人与正常人的沟通。
如图12所示,在一个实施例中,图像采集模块10采集到的图像为二维图像,姿态识别模块20包括第一图像处理模块202和第一姿态产生模块204,其中:
第一图像处理模块202用于提取图像中与预设颜色模型匹配的像素,对获取的像素进行连通域检测,提取检测得到的连通域中的标记区域。
具体的,图像采集模块10可为摄像机,其采集得到的图像可为二维可见光图像。优选的,还可在摄像机的镜头前加入红外滤光片,用于滤去除红外波段的其他波段光线,则图像采集模块10采集的图像为二维红外图像。由于可见光图像中,场景中的物体会对标记区域的识别形成干扰,而红外图像因滤除掉了可见光信息,干扰较少,因此二维红外图像更有利于提取标记区域。
具体的,第一图像处理模块202用于预先建立颜色模型。例如标记区域的色彩为红色,则预先建立红色模型,该模型中像素的RGB值分量可在200到255之间,G、B分量可接近于零;第一图像处理模块202则用于获取帧图像中满足该红色模型的RGB值的像素即为红色像素。另外,当采集的图像中由人体部位形成标记区域时,第一图像处理模块202则用于获取图像中与预设肤色模型匹配的像素。第一图像处理模块202还用于对获取的像素进行连通域检测,得到多个连通域,连通域是若个连续的像素组成的集合。
本实施例中,由于标记区域的大小和形状应大致是固定不变的,第一图像处理模块202在对获取的像素进行连通域检测时,可计算得到获取的像素中的所有连通域的周长和/或面积。具体的,连通域的周长可为连通域边界像素的个数,连通域的面积可为连通域中的全部像素的个数。进一步的,第一图像处理模块202可用于将获取的连通域的周长和/或面积与预设标记区域的周长和/或面积进行对比,获取满足预设标记区域的周长和/或面积的连通域即为标记区域。优选的,第一图像处理模块202还可用于将周长的平方与面积的比值作为判断准则,连通域的该比值满足预设标记区域的该比值,则该连通域为标记区域。
第一姿态产生模块204用于获取标记区域中的像素坐标,根据该像素坐标产生标记区域的姿态。
本实施例中,标记区域产生的姿态为姿态角。在一个实施例中,标记区域为一个连续区域,则第一姿态产生模块204用于计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态,该标记区域的姿态为一个姿态角。
在另一个实施例中,标记区域包括第一连续区域和第二连续区域,则第一姿态产生模块204用于根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标计算标记区域的姿态。具体的,计算连续区域中的全部像素坐标的平均值,所得到的像素坐标即为连续区域的重心。
在另一个实施例中,图像采集模块10采集到的图像为三维图像。具体的,图像采集模块10可采用传统的立体视觉***(由两台控制位置已知的摄像机及相关软件组成)、结构光***(右一台摄像机、一台光源以及相关软件组成)或TOF(time of flight,飞行时间)深度相机实现采集三维图像(即三维深度图像)。
本实施例中,如图13所示,姿态识别模块20包括第二图像处理模块210和第二姿态产生模块220,其中:
第二图像处理模块210用于对所述图像进行分割,提取图像中的连通域,并计算连通域的属性值,将连通域的属性值与预设的标记区域属性值进行对比,所述标记区域为符合所述预设的标记区域属性值的连通域。
具体的,第二图像处理模块210用于当三维图像中两个相邻的像素深度相差小于预先设定的阈值时,例如5厘米,则认为两个像素连通,对整个图像进行连通域检测,可得到包含标记连通域的一系列连通域。
本实施例中,连通域的属性值包括连通域的尺寸和形状。具体的,第二图像处理模块210用于计算连通域的尺寸/形状,与交互设备上的标记的尺寸/形状进行对比,得到符合标记的尺寸/形状的连通域即为标记区域的连通域(标记区域)。以矩形标记为例,即交互设备上的标记在采集的图像中为矩形,预先设定好标记的长度和宽度,第二图像处理模块210则用于计算连通域对应的物理区域的长度和宽度,该长度和宽度与标记的长度和宽度越接近,则连通域与标记区域越相似。
进一步的,第二图像处理模块210用于计算连通域对应的物理区域的长度和宽度的过程如下:计算连通域像素的三维坐标的协方差矩阵,采用如下公式计算连通域对应的物理区域的长度和宽度:其中,k为预先设定的系数,例如设为4,当λ为协方差矩阵最大特征值时,则l为连通域的长度,当λ为协方差矩阵第二大的特征值时,则l为连通域的宽度。
进一步的,第二图像处理模块210还可用于预先设定矩形标记的长宽比,例如长宽比为2,则连通域对应的物理区域的长宽比越接近于预设设定的矩形标记的长宽比,则连通域与标记区域越相似,具体的,属性匹配模块234用于采用如下公式计算连通域对应的物理区域的长宽比:
Figure BDA0000135454020000222
其中,r为连通域的长宽比,λ0为协方差矩阵的最大特征值,λ1为协方差矩阵的第二大特征值。
第二姿态产生模块220用于获取标记区域中的像素坐标,根据所述像素坐标产生标记区域的姿态。
本实施例中,标记区域的姿态为姿态向量。在一个实施例中,标记区域为一个连续区域,则第二姿态产生模块220用于计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态。如上所述,该标记区域的姿态为一个姿态向量。
在另一个实施例中,标记区域包括第一连续区域和第二连续区域,则第二姿态产生模块220用于根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标产生标记区域的姿态。本实施例中,标记区域中的像素坐标为三维坐标,具体的,可根据计算得到的两个连续区域的重心的像素坐标产生标记区域的姿态,该姿态为一个姿态向量。
在一个实施例中,姿态识别模块20还包括判断模块(图中未示出),用于判断采集的图像为二维图像还是三维图像。具体的,本实施例中,当判断模块判断到采集的图像为二维图像时,则通知第一图像处理模块202提取二维图像中的标记区域,进而通过第一姿态产生模块204产生该标记区域的姿态。当判断模块判断到采集的图像为二维图像时,则通知第二图像处理模块210提取三维图像中的标记区域,进而通过第二姿态产生模块220产生该标记区域的姿态。可以理解的,本实施例中,姿态识别模块20同时包括判断模块(图中未示出)、第一图像处理模块202、第一姿态产生模块204、第二图像处理模块210和第二姿态产生模块220。本实施例,既可通过二维图像识别标记区域的姿态,又可通过二维图像识别标记区域的姿态。
如图14所示,在一个实施例中,指令生成模块30包括第一姿态获取模块302和第一指令查找模块304,其中:
第一姿态获取模块302用于从姿态识别模块20中获取当前帧图像中的所述标记区域的姿态。
具体的,该姿态可以是当前帧的二维图像中的标记区域的姿态角,也可以是当前帧的三维深度图像中的标记区域的姿态向量。本实施例中,预先设定了姿态与控制指令之间的映射关系。该姿态也可称为绝对姿态。
第一指令查找模块304用于根据预设的姿态与控制指令之间的映射关系生成与所述姿态对应的控制指令。
本实施例中,所采集的包含标记区域的图像可以是图像序列。第一姿态获取模块302还用于从姿态识别模块20中获取当前帧图像中的标记区域的姿态与上一帧图像中的标记区域的姿态之间的相对姿态。第一指令查找模块304还用于根据预设的相对姿态与控制指令之间的映射关系生成与相对姿态对应的控制指令。
在另一个实施例中,所采集的包含标记区域的图像可以是图像序列。如图15所示,指令生成模块30包括第二姿态获取模块310和第二指令查找模块320,其中:
第二姿态获取模块用于从姿态识别模块20中获取当前帧图像中的标记区域的姿态与上一帧图像中的标记区域的姿态之间的相对姿态。
第二指令查找模块320用于根据预设的相对姿态与控制指令之间的映射关系生成与相对姿态对应的控制指令。
上述手语识别方法及***,根据采集到的包含标记区域的图像识别出标记区域所产生的姿态,并生成姿态对应的控制指令,然后将该控制指令转换成正常人容易理解的自然语言信息。由于通过获取肢体动作的图像来判断肢体动作的运动轨迹和姿态,因此,对整个肢体动作的过程均有记录,从而避免了因为缺乏传感器而漏掉某个动作或姿态的情况,从而提高了识别手语时的准确率。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (14)

1.一种手语识别方法,包括以下步骤:
采集包含标记区域的图像;
识别标记区域的姿态;
生成所述姿态对应的控制指令;
将所述控制指令转换成自然语言信息。
2.根据权利要求1所述的手语识别方法,其特征在于,所述将所述控制指令转换成自然语言信息的步骤包括:
将所述控制指令排列成控制指令序列,根据所述控制指令序列生成自然语言信息。
3.根据权利要求2中所述的手语识别方法,其特征在于,所述根据所述控制指令序列生成自然语言信息的步骤包括:
计算所述控制指令序列的特征值,根据所述预设的特征值与自然语言信息的映射关系生成自然语言信息。
4.根据权利要求3中所述的手语识别方法,其特征在于,所述计算所述控制指令序列的特征值的步骤之前还包括:
将所述控制指令序列中重复的控制指令去除。
5.根据权利要求3中所述的手语识别方法,其特征在于,所述计算所述控制指令序列的特征值的步骤之前还包括:
将所述控制指令序列中与相邻控制指令差别大于阈值的控制指令去除。
6.根据权利要求2中所述的手语识别方法,其特征在于,所述将所述控制指令排列成控制指令序列的步骤包括:
将所述控制指令按照生成的顺序排列成队列,当检测到队列末尾有连续预设个数的相同的控制指令时,排列完毕,并根据所述队列生成控制指令序列。
7.根据权利要求1至6所述的手语识别方法,其特征在于,所述将所述控制指令转换成自然语言信息的步骤之后还包括:
通过文本和/或音频的方式展示所述自然语言信息。
8.一种手语识别***,其特征在于,包括以下模块:
图像采集模块,用于采集包含标记区域的图像;
姿态识别模块,用于识别标记区域的姿态;
指令生成模块,用于生成所述姿态对应的控制指令;
指令转换模块,用于将所述控制指令转换成自然语言信息。
9.根据权利要求8所述的手语识别***,其特征在于,所述指令转换模块还用于将所述控制指令排列成控制指令序列,根据所述控制指令序列生成自然语言信息。
10.根据权利要求9中所述的手语识别***,其特征在于,所述指令转换模块还用于计算所述控制指令序列的特征值,根据所述预设的特征值与自然语言信息的映射关系生成自然语言信息。
11.根据权利要求10中所述的手语识别***,其特征在于,所述指令转换模块还用于将所述控制指令序列中重复的控制指令去除。
12.根据权利要求10中所述的手语识别方法,其特征在于,所述指令转换模块还用于将所述控制指令序列中与相邻控制指令差别大于阈值的控制指令去除。
13.根据权利要求9中所述的手语识别***,其特征在于,所述指令转换模块还用于将所述控制指令按照生成的顺序排列队列,当检测到队列末尾有连续预设个数的相同的控制指令时,排列完毕,并根据所述队列生成控制指令序列。
14.根据权利要求8至13任一项所述的手语识别***,其特征在于,还包括信息展示模块,用于通过文本和/或音频的方式展示所述自然语言信息。
CN201210031595.8A 2011-12-02 2012-02-13 手语识别方法及*** Active CN103136986B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210031595.8A CN103136986B (zh) 2011-12-02 2012-02-13 手语识别方法及***

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201110396235.3 2011-12-02
CN201110396235 2011-12-02
CN201210031595.8A CN103136986B (zh) 2011-12-02 2012-02-13 手语识别方法及***

Publications (2)

Publication Number Publication Date
CN103136986A true CN103136986A (zh) 2013-06-05
CN103136986B CN103136986B (zh) 2015-10-28

Family

ID=48488552

Family Applications (12)

Application Number Title Priority Date Filing Date
CN201110451724.4A Active CN103135754B (zh) 2011-12-02 2011-12-29 采用交互设备实现交互的方法
CN201110453879.1A Active CN103135756B (zh) 2011-12-02 2011-12-29 生成控制指令的方法和***
CN201110451741.8A Active CN103135755B (zh) 2011-12-02 2011-12-29 交互***及方法
CN201210011346.2A Active CN103135882B (zh) 2011-12-02 2012-01-13 控制窗口图片显示的方法和***
CN201210011308.7A Active CN103135881B (zh) 2011-12-02 2012-01-13 显示控制方法及***
CN201210023419XA Pending CN103139508A (zh) 2011-12-02 2012-02-02 控制电视画面显示的方法和***
CN201210024483.XA Active CN103135883B (zh) 2011-12-02 2012-02-03 控制窗口的方法及***
CN201210024389.4A Active CN103127717B (zh) 2011-12-02 2012-02-03 控制操作游戏的方法及***
CN201210025300.6A Active CN103135453B (zh) 2011-12-02 2012-02-06 家用电器控制方法及***
CN201210031595.8A Active CN103136986B (zh) 2011-12-02 2012-02-13 手语识别方法及***
CN201210032932.5A Active CN103135758B (zh) 2011-12-02 2012-02-14 实现快捷功能的方法及***
CN201210032934.4A Active CN103135759B (zh) 2011-12-02 2012-02-14 多媒体播放控制方法和***

Family Applications Before (9)

Application Number Title Priority Date Filing Date
CN201110451724.4A Active CN103135754B (zh) 2011-12-02 2011-12-29 采用交互设备实现交互的方法
CN201110453879.1A Active CN103135756B (zh) 2011-12-02 2011-12-29 生成控制指令的方法和***
CN201110451741.8A Active CN103135755B (zh) 2011-12-02 2011-12-29 交互***及方法
CN201210011346.2A Active CN103135882B (zh) 2011-12-02 2012-01-13 控制窗口图片显示的方法和***
CN201210011308.7A Active CN103135881B (zh) 2011-12-02 2012-01-13 显示控制方法及***
CN201210023419XA Pending CN103139508A (zh) 2011-12-02 2012-02-02 控制电视画面显示的方法和***
CN201210024483.XA Active CN103135883B (zh) 2011-12-02 2012-02-03 控制窗口的方法及***
CN201210024389.4A Active CN103127717B (zh) 2011-12-02 2012-02-03 控制操作游戏的方法及***
CN201210025300.6A Active CN103135453B (zh) 2011-12-02 2012-02-06 家用电器控制方法及***

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN201210032932.5A Active CN103135758B (zh) 2011-12-02 2012-02-14 实现快捷功能的方法及***
CN201210032934.4A Active CN103135759B (zh) 2011-12-02 2012-02-14 多媒体播放控制方法和***

Country Status (1)

Country Link
CN (12) CN103135754B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810922A (zh) * 2014-01-29 2014-05-21 上海寅动信息科技有限公司 手语翻译***
CN106682593A (zh) * 2016-12-12 2017-05-17 山东师范大学 一种基于手势识别的手语会议方法及***
CN109711349A (zh) * 2018-12-28 2019-05-03 百度在线网络技术(北京)有限公司 用于生成控制指令的方法和装置
CN111665727A (zh) * 2019-03-06 2020-09-15 北京京东尚科信息技术有限公司 用于控制家居设备的方法、装置和家居设备控制***
CN113822186A (zh) * 2021-09-10 2021-12-21 阿里巴巴达摩院(杭州)科技有限公司 手语翻译、客服、通信方法、设备和可读介质
CN113822187A (zh) * 2021-09-10 2021-12-21 阿里巴巴达摩院(杭州)科技有限公司 手语翻译、客服、通信方法、设备和可读介质

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104349197B (zh) * 2013-08-09 2019-07-26 联想(北京)有限公司 一种数据处理方法及装置
JP5411385B1 (ja) * 2013-08-12 2014-02-12 株式会社 ディー・エヌ・エー ゲームを提供するサーバ及び方法
CN104801042A (zh) * 2014-01-23 2015-07-29 鈊象电子股份有限公司 根据玩家挥手范围切换游戏画面的方法
CN103902045A (zh) * 2014-04-09 2014-07-02 深圳市中兴移动通信有限公司 通过非接触式姿势操作壁纸的方法及装置
CN105094785A (zh) * 2014-05-20 2015-11-25 腾讯科技(深圳)有限公司 一种配色文件生成方法及装置
CN104391573B (zh) * 2014-11-10 2017-05-03 北京华如科技股份有限公司 一种基于单姿态传感器识别投掷动作的方法及装置
CN104460988B (zh) * 2014-11-11 2017-12-22 陈琦 一种智能手机虚拟现实设备的输入控制方法
KR101608172B1 (ko) 2014-12-22 2016-03-31 주식회사 넥슨코리아 객체를 제어하는 방법 및 장치
CN106139590B (zh) * 2015-04-15 2019-12-03 乐线韩国股份有限公司 控制对象的方法和装置
US10543427B2 (en) * 2015-04-29 2020-01-28 Microsoft Technology Licensing, Llc Game controller function remapping via external accessory
CN105204354A (zh) * 2015-09-09 2015-12-30 北京百度网讯科技有限公司 智能家居设备的控制方法及装置
CN108027654B (zh) * 2015-09-28 2021-01-12 日本电气株式会社 输入设备、输入方法和程序
CN105892638A (zh) * 2015-12-01 2016-08-24 乐视致新电子科技(天津)有限公司 一种虚拟现实交互方法、装置和***
CN106896732B (zh) * 2015-12-18 2020-02-04 美的集团股份有限公司 家用电器的展示方法和装置
CN105592367A (zh) * 2015-12-23 2016-05-18 青岛海信电器股份有限公司 一种图像显示参数调节方法和***
JP6370820B2 (ja) * 2016-02-05 2018-08-08 株式会社バンダイナムコエンターテインメント 画像生成システム、ゲーム装置及びプログラム。
CN105760106B (zh) * 2016-03-08 2019-01-15 网易(杭州)网络有限公司 一种智能家居设备交互方法和装置
CN105930050B (zh) * 2016-04-13 2018-01-26 腾讯科技(深圳)有限公司 行为确定方法及装置
CN108431872A (zh) * 2016-12-27 2018-08-21 华为技术有限公司 一种共享虚拟现实数据的方法和设备
CN108668042B (zh) * 2017-03-30 2021-01-15 富士施乐实业发展(中国)有限公司 一种复合机***
CN109558000B (zh) 2017-09-26 2021-01-22 京东方科技集团股份有限公司 一种人机交互方法及电子设备
CN107831996B (zh) * 2017-10-11 2021-02-19 Oppo广东移动通信有限公司 人脸识别启动方法及相关产品
CN107861682A (zh) * 2017-11-03 2018-03-30 网易(杭州)网络有限公司 虚拟对象的移动控制方法和装置
CN108228251B (zh) * 2017-11-23 2021-08-27 腾讯科技(上海)有限公司 游戏应用中控制目标对象的方法和装置
CN108036479A (zh) * 2017-12-01 2018-05-15 广东美的制冷设备有限公司 空调器的控制方法、***、视觉控制器和存储介质
CN110007748B (zh) * 2018-01-05 2021-02-19 Oppo广东移动通信有限公司 终端的控制方法、处理装置、存储介质及终端
WO2019153971A1 (zh) * 2018-02-06 2019-08-15 广东虚拟现实科技有限公司 视觉交互装置及标记物
CN108765299B (zh) * 2018-04-26 2022-08-16 广州视源电子科技股份有限公司 立体图形标记***及方法
CN108693781A (zh) * 2018-07-31 2018-10-23 湖南机电职业技术学院 智能家居控制***
JP7262976B2 (ja) * 2018-11-02 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
TWI681755B (zh) * 2018-12-24 2020-01-11 山衛科技股份有限公司 脊椎側彎量測系統與方法
CN109816650B (zh) * 2019-01-24 2022-11-25 强联智创(北京)科技有限公司 一种基于二维dsa图像的目标区域识别方法及其***
CN111803930A (zh) * 2020-07-20 2020-10-23 网易(杭州)网络有限公司 多平台交互方法、装置以及电子设备
CN115623254A (zh) * 2021-07-15 2023-01-17 北京字跳网络技术有限公司 视频效果的添加方法、装置、设备及存储介质
CN113326849B (zh) * 2021-07-20 2022-01-11 广东魅视科技股份有限公司 一种可视化数据采集方法及***
CN113499585B (zh) * 2021-08-09 2024-07-09 网易(杭州)网络有限公司 游戏中交互方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050238201A1 (en) * 2004-04-15 2005-10-27 Atid Shamaie Tracking bimanual movements
CN101527092A (zh) * 2009-04-08 2009-09-09 西安理工大学 特定会话场景下的计算机辅助手语交流方法
CN101539994A (zh) * 2009-04-16 2009-09-23 西安交通大学 一种手语语音互译***及手语语音互译方法
CN101763515A (zh) * 2009-09-23 2010-06-30 中国科学院自动化研究所 一种基于计算机视觉的实时手势交互方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JPH0918708A (ja) * 1995-06-30 1997-01-17 Omron Corp 画像処理方法およびその方法を用いた画像入力装置,制御装置,画像出力装置,ならびに画像処理システム
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US20070124694A1 (en) * 2003-09-30 2007-05-31 Koninklijke Philips Electronics N.V. Gesture to define location, size, and/or content of content window on a display
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
CN100345085C (zh) * 2004-12-30 2007-10-24 中国科学院自动化研究所 基于玩家姿势和语音的电子游戏场景和角色控制方法
EP2296079A3 (en) * 2005-10-26 2011-04-13 Sony Computer Entertainment Inc. System and method for interfacing with a computer program
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
CN101388138B (zh) * 2007-09-12 2011-06-29 原相科技股份有限公司 互动图像***、互动装置及其运作方法
CN101398896B (zh) * 2007-09-28 2012-10-17 三星电子株式会社 用于成像设备的提取有强识别力的颜色特征的设备和方法
JP4938617B2 (ja) * 2007-10-18 2012-05-23 幸輝郎 村井 オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法
CN101483005A (zh) * 2008-01-07 2009-07-15 致伸科技股份有限公司 多媒体文件播放遥控装置
JP5174492B2 (ja) * 2008-03-05 2013-04-03 公立大学法人首都大学東京 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
CN101551700B (zh) * 2008-03-31 2012-03-28 联想(北京)有限公司 电子游戏输入装置、电子游戏设备及电子游戏输入方法
EP2266016A4 (en) * 2008-04-02 2014-10-29 Oblong Ind Inc GESTURE BASED CONTROL USING EXTENDED THREE-DIMENSIONAL INFORMATION THROUGH AN EXTENDED SHARPNESS
KR100978929B1 (ko) * 2008-06-24 2010-08-30 한국전자통신연구원 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말
CN101504728B (zh) * 2008-10-10 2013-01-23 深圳泰山在线科技有限公司 一种电子设备的遥控***及其遥控方法
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的***
CN101465116B (zh) * 2009-01-07 2013-12-11 北京中星微电子有限公司 一种显示设备控制方法及一种显示设备
CN101504586A (zh) * 2009-03-25 2009-08-12 中国科学院软件研究所 一种基于笔尾手势的指令方法
CN101673094A (zh) * 2009-09-23 2010-03-17 曾昭兴 一种家电控制装置和控制方法
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
CN101799717A (zh) * 2010-03-05 2010-08-11 天津大学 基于手部行为捕捉的人机交互方法
CN101833653A (zh) * 2010-04-02 2010-09-15 上海交通大学 低分辨率视频中的人物识别方法
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
CN201750431U (zh) * 2010-07-02 2011-02-16 厦门万安智能股份有限公司 智能家居集控装置
CN102179048A (zh) * 2011-02-28 2011-09-14 武汉市高德电气有限公司 基于动作分解和行为分析实现实景游戏的方法
CN102226880A (zh) * 2011-06-03 2011-10-26 北京新岸线网络技术有限公司 一种基于虚拟现实的体感操作方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050238201A1 (en) * 2004-04-15 2005-10-27 Atid Shamaie Tracking bimanual movements
CN101527092A (zh) * 2009-04-08 2009-09-09 西安理工大学 特定会话场景下的计算机辅助手语交流方法
CN101539994A (zh) * 2009-04-16 2009-09-23 西安交通大学 一种手语语音互译***及手语语音互译方法
CN101763515A (zh) * 2009-09-23 2010-06-30 中国科学院自动化研究所 一种基于计算机视觉的实时手势交互方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810922A (zh) * 2014-01-29 2014-05-21 上海寅动信息科技有限公司 手语翻译***
CN103810922B (zh) * 2014-01-29 2016-03-23 上海天昊信息技术有限公司 手语翻译***
CN106682593A (zh) * 2016-12-12 2017-05-17 山东师范大学 一种基于手势识别的手语会议方法及***
CN109711349A (zh) * 2018-12-28 2019-05-03 百度在线网络技术(北京)有限公司 用于生成控制指令的方法和装置
CN111665727A (zh) * 2019-03-06 2020-09-15 北京京东尚科信息技术有限公司 用于控制家居设备的方法、装置和家居设备控制***
CN113822186A (zh) * 2021-09-10 2021-12-21 阿里巴巴达摩院(杭州)科技有限公司 手语翻译、客服、通信方法、设备和可读介质
CN113822187A (zh) * 2021-09-10 2021-12-21 阿里巴巴达摩院(杭州)科技有限公司 手语翻译、客服、通信方法、设备和可读介质

Also Published As

Publication number Publication date
CN103135759B (zh) 2016-03-09
CN103135882A (zh) 2013-06-05
CN103127717A (zh) 2013-06-05
CN103135883A (zh) 2013-06-05
CN103135453B (zh) 2015-05-13
CN103135756A (zh) 2013-06-05
CN103135882B (zh) 2016-08-03
CN103135759A (zh) 2013-06-05
CN103135755A (zh) 2013-06-05
CN103135756B (zh) 2016-05-11
CN103136986B (zh) 2015-10-28
CN103135758A (zh) 2013-06-05
CN103135754B (zh) 2016-05-11
CN103135758B (zh) 2016-09-21
CN103135881B (zh) 2016-12-14
CN103127717B (zh) 2016-02-10
CN103135881A (zh) 2013-06-05
CN103135883B (zh) 2016-07-06
CN103139508A (zh) 2013-06-05
CN103135453A (zh) 2013-06-05
CN103135754A (zh) 2013-06-05
CN103135755B (zh) 2016-04-06

Similar Documents

Publication Publication Date Title
CN103136986B (zh) 手语识别方法及***
Singh et al. Video benchmarks of human action datasets: a review
CN105487673B (zh) 一种人机交互***、方法及装置
Suarez et al. Hand gesture recognition with depth images: A review
CN103839040B (zh) 基于深度图像的手势识别方法和装置
Lee et al. Vision-based remote control system by motion detection and open finger counting
CN109241909A (zh) 一种基于智能终端的远程舞蹈动作捕捉评测***
CN103150019A (zh) 一种手写输入***及方法
CN107992792A (zh) 一种基于加速度传感器的空中手写汉字识别***及方法
CN105718878A (zh) 基于级联卷积神经网络的第一视角空中手写和空中交互方法
CN106598227A (zh) 基于Leap Motion和Kinect的手势识别方法
CN102799277A (zh) 一种基于眨眼动作的人机交互方法及***
CN103995595A (zh) 一种基于手势的游戏体感控制方法
CN103049761A (zh) 基于手语手套的手语识别方法及***
EP1148411A3 (en) Information processing apparatus and method for recognising user gesture
CN103207709A (zh) 一种多点触摸***及方法
Yin et al. Toward natural interaction in the real world: Real-time gesture recognition
Alam et al. Implementation of a character recognition system based on finger-joint tracking using a depth camera
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制***
CN103092437A (zh) 一种基于图像处理技术的便捷式触控交互***
Liang et al. Hand gesture recognition using view projection from point cloud
Richarz et al. Visual recognition of 3D emblematic gestures in an HMM framework
CN102436301A (zh) 一种基于参考区域和时域信息的人机交互方法及***
CN104123008A (zh) 一种基于静态手势的人机交互方法及***
CN110134241A (zh) 基于单目摄像头的动态手势交互方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee
CP01 Change in the name or title of a patent holder

Address after: 518000 Shenzhen, Nanshan District Province, science and technology, South Road, the building of the big square, building 02, room 4,

Patentee after: SHENZHEN TAISHAN SPORTS TECHNOLOGY CORP., LTD.

Address before: 518000 Shenzhen, Nanshan District Province, science and technology, South Road, the building of the big square, building 02, room 4,

Patentee before: Shenzhen Tol Technology Co., Ltd.

CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 518000 room 02, 4th floor, Fangda building, Keji South 12th Road, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Taishan Sports Technology Co.,Ltd.

Address before: 518000 room 02, 4th floor, Fangda building, Keji South 12th Road, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN TAISHAN SPORTS TECHNOLOGY Corp.,Ltd.