CN1304931C - 一种头戴式立体视觉手势识别装置 - Google Patents
一种头戴式立体视觉手势识别装置 Download PDFInfo
- Publication number
- CN1304931C CN1304931C CNB2005100029513A CN200510002951A CN1304931C CN 1304931 C CN1304931 C CN 1304931C CN B2005100029513 A CNB2005100029513 A CN B2005100029513A CN 200510002951 A CN200510002951 A CN 200510002951A CN 1304931 C CN1304931 C CN 1304931C
- Authority
- CN
- China
- Prior art keywords
- head
- stereo vision
- hand
- image
- wearable computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 36
- 239000004744 fabric Substances 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000003993 interaction Effects 0.000 abstract description 10
- 238000004364 calculation method Methods 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 239000002245 particle Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000001915 proofreading effect Effects 0.000 description 3
- 210000005224 forefinger Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明为头戴式立体视觉手势识别装置,属于计算机视觉与人机交互技术领域。该装置由立体视觉成像头、立体视觉板、头戴显示器和穿戴计算机四个部分组成;立体视觉成像头获取穿戴者手的灰度图像,立体视觉板实时计算稠密视差图(深度图),并将视差图和灰度图像传送给穿戴计算机,穿戴计算机完成人手跟踪与手势识别的任务,并将计算结果显示在头戴显示器上。本发明可以实现在穿戴计算环境下的人手跟踪与手势识别,用于完成手势鼠标、手语识别和手写字符输入等,实现基于手势的智能人机接口。
Description
技术领域
本发明为一种头戴式立体视觉手势识别装置,属于计算机视觉与人机交互技术领域,用于穿戴计算机的手势交互。
背景技术
穿戴计算机的各种输入装置,比如键盘、鼠标、写字板等,都穿戴在人身上,比如腰部、胸部、肩部、手臂等部位。这些输入装置对于穿戴者来说,比较累赘,因此,人们在大力研发手势识别技术,以解决人和计算机之间的自然交互。目前,已有各种不同的装置和技术用来解决穿戴条件下的手势识别问题,主要可以分为二大类。第一类是基于数据手套的手势识别装置,如,澳大利亚的“Tinmith-Hand”。但该类装置体积大,需要佩戴数据手套,没有完全把人手解放出来。第二类是基于计算机视觉的手势识别装置,该类装置使用一个普通的CCD或CMOS摄像头,具有体积小、价格便宜和功耗较低的特点。如,日本国家工业科学技术研究院智能***研究所研发的单目穿戴视觉***“Weavy”,美国加州大学HRL实验室研制的穿戴视觉***“SNAP&TELL”。已有这类装置的主要不足是:(1)采用单个摄像机,获取的信息有限,容易受到环境光线和复杂背景的影响;(2)摄像头方向固定,只能面向前方,识别手势时穿戴者必须将手抬起来,容易产生疲劳,缺乏灵活性;(3)主要采用肤色信息进行人手跟踪与手势识别,肤色易受光照条件的影响,随着穿戴者的行走,会引起光照条件的改变,从而导致跟踪与识别的失败;除此之外,当摄像机视野中出现与肤色相近的物体时,会产生二义性,无法区分。
针对现有装置和技术存在的问题与不足,本发明提出了一种头戴式立体视觉手势识别装置。该装置包括立体视觉成像头、立体视觉板、头戴显示器和穿戴计算机四个主要部分,以及图像数据线缆、IEEE1394连接线、VGA连接线、旋转轴和头箍五个辅助部件。该装置可以同步采集两幅或两幅以上的人手图像,能够实时计算稠密视差图,结合稠密视差图和人手图像,能够稳定和鲁棒的进行人手跟踪和手势识别,为穿戴计算机提供基于手势的自然友好的人机接口。
发明内容
本发明包括立体视觉成像头1、立体视觉板2、头戴显示器3和穿戴计算机4四个主要部分,以及图像数据线缆5、IEEE1394连接线6、VGA连接线7、旋转轴9和头箍10五个辅助部件;立体视觉成像头1包括两个或两个以上的彩色***机8,可以同步采集两幅或两幅以上的人手图像;立体视觉板2以视频速度计算稠密视差图,并将稠密视差图和人手图像以视频速度传输到穿戴计算机4,穿戴计算机4完成人手跟踪和手势识别,并将识别和控制结果显示在头戴显示器3上;为了方便地恢复近距离的手势稠密视差图,***机8采用了广角摄像头;***机8之间的基线距离较小,这样既保证了摄像机视场角公共区与摄像机的距离较小,也保证了人手具有一定的活动范围。
立体视觉成像头1通过一个旋转轴9连接在立体视觉板2上,立体视觉板2固定在头箍10的右边或左边,使用旋转轴9来改变立体视觉成像头1的朝向,便于获取右手或左手的图像。
立体视觉板2以一片FPGA作为处理芯片,实时完成图像变形修正、外极线校正和稠密视差图的计算。立体视觉板2中包含有一个基于IEEE1394通讯芯片设计的实时图像传输接口,用于实现稠密视差图和人手图像的实时传输。立体视觉板的体积小,重量轻,计算速度快。
穿戴计算机4实时接收来自立体视觉板2的稠密视差图和人手图像,穿戴计算机4完成人手跟踪与手势识别的任务,并将计算结果显示在头戴显示器3上,用于实现手势鼠标、手语识别和手写字符输入等应用。
本发明的具体特征如下:
(1)头戴式立体视觉手势识别装置中的立体视觉成像头1包括两个或两个以上的***机8,可以同步获取两幅或两幅以上的人手图像,为穿戴计算机4提供人手图像的同时,还提供了稠密视差图,可以鲁棒地实现人手跟踪和手势识别。
(2)立体视觉成像头1通过一个旋转轴9连接在立体视觉板2上,立体视觉板2固定在头箍10的右或左边,便于获取右手或左手的图像,并可使用旋转轴9来调节立体视觉成像头1的朝向,如前方、下方、斜下方等,以方便穿戴者在座姿、站立、行走等不同情况下调节最合适的立体视觉成像头1的朝向。
(3)头戴式立体视觉手势识别装置中的立体视觉板2以视频的速度计算稠密视差图或稠密深度图,并将人手图像和稠密视差图以视频的速度传输到穿戴计算机4中进行手势跟踪与识别。
(4)通过廉价的立体视觉技术,获取两幅或两幅以上的人手图像,通过对这些图像的实时计算得到稠密视差图,利用人手图像和稠密视差图能够更稳定的实现人手跟踪和手势识别,并将计算结果显示在头戴显示器3上,用于实现手势鼠标、手语识别和手写字符输入等应用。
本发明具有以下优点:
1.本发明采用了立体视觉信息和灰度图像或彩色图像信息,实现更加可靠和鲁棒的人手定位、跟踪和识别。
2.本发明采用广角镜头(60°以上),并使用图像变形修正算法,有效地提高场景图像感知效率,可以在穿戴条件下可靠地对近距离人手进行定位、跟踪和识别。
3.本发明采用两个或多个***机8,并采用硬件实现图像的变形修正处理、图像外极线校正处理、稠密视差图和稠密深度图的视频速度计算。
4.本发明采用IEEE1394接口16实现与穿戴计算机4的实时通讯,降低了延迟,提高了交互的效率。
5.本发明体积小、重量轻、计算速度快。
附图说明
图1是本发明的组成示意图。
图2是本发明的基本组成框图。
图3是本发明的穿戴示意图。
图4是本发明的两种立体视觉成像头外观图。
图5是本发明的立体视觉成像头组成框图。
图6是本发明的立体视觉板组成框图。
图7是本发明的手语识别的流程示意图。
图8是本发明的手势鼠标应用中用到的三种手势。
图9是本发明的手势鼠标的流程示意图。
图10是本发明的手写字符输入应用中用到的三种手势。
图11是本发明的手写字符输入的流程示意图。
图1-图11中的1-立体视觉成像头、2-立体视觉板、3-头戴显示器、4-穿戴计算机、5-图像数据线缆、6-IEEE1394连接线、7-VGA连接线、8-***机、9-旋转轴、10-头箍、11-图像采集控制器、12-图像传输接口、13-立体视觉信息处理器、14-控制器/通讯接口、15-图像高层处理与传输控制器、16-IEEE1394接口、17-帧存储器、18-图像传输接口。
具体实施方式
一种头戴式立体视觉手势识别装置的结构:如图1、2、3所示,该装置包括立体视觉成像头1、立体视觉板2、头戴显示器3和穿戴计算机4四个主要部分,以及图像数据线缆5、IEEE1394连接线6、VGA连接线7、旋转轴9和头箍10五个辅助部件。立体视觉成像头1通过一个旋转轴9连接在立体视觉板2上,立体视觉板2固定在头箍10的右或左边,便于获取右手或左手的图像,并可使用旋转轴9来调节立体视觉成像头1的朝向。立体视觉成像头1通过图像数据线缆5把采集到的人手图像传送到立体视觉板2。立体视觉板2完成图像变形修正、图像外级线校正和稠密视差图的实时计算,并将稠密视差图连同人手图像通过IEEE1394接口16传送给穿戴计算机4;穿戴计算机4根据稠密视差图和人手图像,实现人手的分割、跟踪和手势识别,并将手势控制显示在头戴显示器3上,实现文本、图形、图像界面的控制。
图4是两种立体视觉成像头1的外观图,一种是双目的,另一种是三目的。图5是立体视觉成像头组成框图。立体视觉成像头1由两个或两个以上的***机8、图像采集控制器11、图像传输接口18和帧存储器17组成。立体视觉成像头1采用三个***机比采用两个***机获取的视觉信息更丰富,视差图更稠密、更精确,而采用两个***机8更加轻巧,并可以获得更快的执行速度。可根据需求选取合适的***机8数目。***机8采用了广角镜头,摄像头的对角线视场角范围为60°以上,可以恢复0.3-1.2米深度范围内人手的稠密三维数据。图像采集控制器11控制多个***机同步采集图像,并将图像缓存到帧存储器17,然后再通过图像传输接口18传送到立体视觉板2。立体视觉成像头1通过一个手动旋转轴9与立体视觉板2相连,并固定在头箍10上,人们可以根据需要,旋转立体视觉成像头1。这样,穿戴者可以在坐姿、站姿或行走时选择最合适的摄像头朝向。
图6是立体视觉板2的组成框图。立体视觉板2由立体视觉信息处理器13和控制器/通讯接口14组成。立体视觉信息处理器13以一片FPGA作为处理芯片,完成图像变形修正、LoG滤波、图像外极线校正、稠密视差图计算。立体视觉信息处理器13的实现方法见我们的发明专利ZL02100547.8。控制器/通讯接口14由图像高层处理与传输控制器15和1394接口16组成。图像高层处理与传输控制器15由DSP芯片实现,不仅可以向立体视觉信息处理器13传送立体成像头1的内部和外部参数,并进行图像的高层处理,而且还可以通过1394接口16将人手图像和稠密视差图传输给穿戴计算机4。
立体视觉成像头1在使用之前,要进行标定。把标定参数由穿戴计算机4通过1394接口16传输到立体视觉板2。立体视觉成像头1采用固定的镜头,并将其与成像芯片固化到一起,已保证在穿戴者使用过程中,***参数不会发生改变。
穿戴计算机4是整个装置的中央控制机构和高层处理单元。穿戴计算机4对***的各个部分进行统一管理和协调控制,并对立体视觉板2输出的稠密视差图和人手图像进行进一步的高层处理,完成人手跟踪与手势识别的任务,为穿戴计算机提供基于手势的智能人机接口。
手势是一种自然而直观的人际交流模式,基于视觉的手势交互是实现新一代人机交互的关键技术。特别是对于穿戴计算机来说,基于视觉的手势交互是最有希望突破人机交互瓶颈的核心技术。目前已经有许多手势识别和跟踪的方法,但在动态和复杂背景下,比如穿戴计算机视觉***所处的环境,由于图像的抖动、光照的变化、背景的动态和复杂性,给穿戴计算环境下的人手跟踪与手势识别带来一定的困难。利用单一的视觉信息很难获得鲁棒的跟踪与识别结果,因此,多信息融合是一个行之有效的好方法。该装置可以实时地获取灰度和稠密视差图,综合利用多种视觉信息完成人手跟踪与手势识别的任务。
人手跟踪与手势识别是手势交互过程中两项重要的技术。在下面的应用实例中,我们采用粒子滤波器(Particle Filter)进行人手的鲁棒跟踪。粒子滤波器是一种非线性/非高斯的贝叶斯滤波器,它利用随机产生的样本集合来表示跟踪目标在图像中的概率分布,该分布是非高斯的,可以同时维持多个假设,能够增强复杂背景下的目标跟踪能力;除此之外,样本集合中可以同时存在多种类别的粒子,便于融合多种视觉信息进行人手的鲁棒跟踪。我们采用隐马尔可夫模型(Hidden Markov Models,HMM)进行手势识别,在基于HMM的识别算法里,每种手势有一个HMM,可观察符号对应着模型参数空间里的向量,例如几何矩向量,Zernike矩,特征图像系数向量,或者3D空间的运动速度等等。基于HMM识别技术不仅具有时间尺度不变性,而且还具备自动分割和分类的能力,可以用于动态手势和手语的识别。
应用举例1
图7给出了一个手语识别的流程示意图。立体视觉成像头1把采集到人手图像传送至立体视觉板2。立体视觉板2对人手图像进行变形修正、外极线校正和稠密视差图计算,把校正后的人手图像和稠密视差图通过1394接口16传送至穿戴计算机4。从稠密视差图和人手图像中提取特征,采用基于HMM的手语识别方法进行手语识别。最后,将识别结果显示在头戴显示器3上。
应用举例2
图9给出了是一个手势鼠标的流程示意图。立体视觉成像头1把采集得到人手图像传送至立体视觉板2。立体视觉板2对人手图像对进行变形修正、外极线校正和稠密视差图计算,把校正后的人手图像和稠密视差图通过1394接口16传送至穿戴计算机4。穿戴计算机4综合利用人手图像信息和稠密视差图进行人手的鲁棒跟踪,并在跟踪过程中进行手势识别。图8给出了手势鼠标中用到的三种手势,手势1是右手自然伸展状态,手背朝向摄像机,对应鼠标移动事件;手势2是右手握拳状态,对应单击鼠标左键事件;手势3是右手自然伸展状态,手心朝向摄像机8,对应单击鼠标右键事件。通过对这三种手势的跟踪、识别就可以完成传统的鼠标操作,我们把这种基于手势的人机交互方式称为手势鼠标。
应用举例3
图11给出了是一个手写字符输入的流程示意图。立体视觉成像头1把采集得到人手图像传送至立体视觉板2。立体视觉板2对人手图像对进行变形修正、外极线校正和稠密视差图计算,把校正后的人手图像和稠密视差图通过1394接口16传送至穿戴计算机4。穿戴计算机4综合利用人手图像和稠密视差图进行人手的鲁棒跟踪,并在跟踪过程中进行手势识别和食指指尖定位。图10给出了三种手势,字符轨迹输入点由食指指尖确定。由手势1切换到手势2表示字符笔画输入的开始;由手势2切换到手势1表示字符笔画输入的结束;手势3表示字符轨迹输入完毕。通过这3种手势的识别,就可以实现字符轨迹的输入,可以是单或多笔画的字符,甚至可以输入汉字轨迹。之后,进行字符识别。从而实现了基于手势的手写体字符的输入。
Claims (3)
1.一种头戴式立体视觉手势识别装置,其特征在于:该装置包括立体视觉成像头(1)、立体视觉板(2)、头戴显示器(3)和穿戴计算机(4)四个主要部分,以及图像数据线缆(5)、IEEE1394连接线(6)、VGA连接线(7)、旋转轴(9)和头箍(10)五个辅助部件;立体视觉成像头(1)包括两个或两个以上的***机(8),同步采集两幅或两幅以上的人手图像并传送至立体视觉板;立体视觉板(2)以视频速度计算稠密视差图,并将稠密视差图和人手图像以视频速度传输到穿戴计算机(4),穿戴计算机(4)完成人手跟踪和手势识别,并将识别和控制结果显示在头戴显示器(3)上。
2.如权利要求1所述的一种头戴式立体视觉手势识别装置,其特征在于:为了计算近距离的人手稠密视差图,***机(8)采用了广角摄像头。
3.如权利要求1所述的一种头戴式立体视觉手势识别装置,其特征在于:立体视觉成像头(1)通过旋转轴(9)连接在立体视觉板(2)上,立体视觉板(2)固定在头箍(10)的右边或左边,通过旋转轴(9)来改变立体视觉成像头(1)的朝向,便于获取右手或左手的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2005100029513A CN1304931C (zh) | 2005-01-27 | 2005-01-27 | 一种头戴式立体视觉手势识别装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2005100029513A CN1304931C (zh) | 2005-01-27 | 2005-01-27 | 一种头戴式立体视觉手势识别装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1648840A CN1648840A (zh) | 2005-08-03 |
CN1304931C true CN1304931C (zh) | 2007-03-14 |
Family
ID=34875145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100029513A Expired - Fee Related CN1304931C (zh) | 2005-01-27 | 2005-01-27 | 一种头戴式立体视觉手势识别装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1304931C (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100487636C (zh) * | 2006-06-09 | 2009-05-13 | 中国科学院自动化研究所 | 基于立体视觉的游戏控制***及方法 |
JP5507797B2 (ja) * | 2007-03-12 | 2014-05-28 | キヤノン株式会社 | 頭部装着型撮像表示装置及び画像生成装置 |
CN100487568C (zh) * | 2007-05-29 | 2009-05-13 | 南京航空航天大学 | 具有视线跟踪功能的增强现实自然交互式头盔 |
CN101609362B (zh) * | 2008-06-19 | 2011-07-20 | 大同股份有限公司 | 以视讯为基础的游标控制装置及其控制方法 |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
JP5648443B2 (ja) * | 2010-11-26 | 2015-01-07 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
CN102760198A (zh) * | 2011-04-27 | 2012-10-31 | 德信互动科技(北京)有限公司 | 近距离体感互动装置和方法 |
TWI540461B (zh) * | 2011-12-05 | 2016-07-01 | 緯創資通股份有限公司 | 手勢輸入的方法及系統 |
TWI450024B (zh) * | 2012-06-05 | 2014-08-21 | Wistron Corp | 立體深度影像建立系統及其方法 |
EP2680228B1 (en) * | 2012-06-25 | 2014-11-26 | Softkinetic Software | Improvements in or relating to three dimensional close interactions. |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
CN103336579A (zh) * | 2013-07-05 | 2013-10-02 | 百度在线网络技术(北京)有限公司 | 穿戴式设备的输入方法和穿戴式设备 |
CN103345064B (zh) * | 2013-07-16 | 2015-08-26 | 深圳市智帽科技开发有限公司 | 一种集成3d识别的帽子及帽子的3d识别方法 |
KR102065417B1 (ko) * | 2013-09-23 | 2020-02-11 | 엘지전자 주식회사 | 웨어러블 이동단말기 및 그 제어방법 |
CN104063092B (zh) * | 2014-06-16 | 2016-12-07 | 青岛歌尔声学科技有限公司 | 一种触摸屏控制方法及装置 |
CN104571510B (zh) | 2014-12-30 | 2018-05-04 | 青岛歌尔声学科技有限公司 | 一种3d场景中输入手势的***和方法 |
CN104571511B (zh) | 2014-12-30 | 2018-04-27 | 青岛歌尔声学科技有限公司 | 一种3d场景中重现物体的***和方法 |
US10482670B2 (en) | 2014-12-30 | 2019-11-19 | Qingdao Goertek Technology Co., Ltd. | Method for reproducing object in 3D scene and virtual reality head-mounted device |
US10156908B2 (en) * | 2015-04-15 | 2018-12-18 | Sony Interactive Entertainment Inc. | Pinch and hold gesture navigation on a head-mounted display |
KR20180084901A (ko) * | 2015-12-30 | 2018-07-25 | 선전 로욜 테크놀로지스 컴퍼니 리미티드 | 헤드 장착형 디스플레이 디바이스 및 이의 제어 방법 |
WO2017147748A1 (zh) | 2016-02-29 | 2017-09-08 | 华为技术有限公司 | 一种可穿戴式***的手势控制方法以及可穿戴式*** |
CN106648078B (zh) * | 2016-12-05 | 2020-06-02 | 北京光年无限科技有限公司 | 应用于智能机器人的多模态交互方法及*** |
CN114677766B (zh) * | 2022-05-26 | 2023-02-14 | 中国科学院西安光学精密机械研究所 | 基于无镜头成像技术的手语识别方法、***及交互设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1218936A (zh) * | 1997-09-26 | 1999-06-09 | 松下电器产业株式会社 | 手势识别装置 |
JPH11184584A (ja) * | 1997-12-19 | 1999-07-09 | Nippon Telegr & Teleph Corp <Ntt> | 仮想現実端末装置 |
CN1136738C (zh) * | 2002-01-31 | 2004-01-28 | 北京理工大学 | 一种微型实时立体视觉机 |
US6750848B1 (en) * | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
-
2005
- 2005-01-27 CN CNB2005100029513A patent/CN1304931C/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1218936A (zh) * | 1997-09-26 | 1999-06-09 | 松下电器产业株式会社 | 手势识别装置 |
JPH11184584A (ja) * | 1997-12-19 | 1999-07-09 | Nippon Telegr & Teleph Corp <Ntt> | 仮想現実端末装置 |
US6750848B1 (en) * | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
CN1136738C (zh) * | 2002-01-31 | 2004-01-28 | 北京理工大学 | 一种微型实时立体视觉机 |
Also Published As
Publication number | Publication date |
---|---|
CN1648840A (zh) | 2005-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1304931C (zh) | 一种头戴式立体视觉手势识别装置 | |
Yang et al. | Gesture interaction in virtual reality | |
CN105389539B (zh) | 一种基于深度数据的三维手势姿态估计方法及*** | |
Suarez et al. | Hand gesture recognition with depth images: A review | |
Khan et al. | Survey on gesture recognition for hand image postures | |
US20180186452A1 (en) | Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation | |
CN110555412B (zh) | 基于rgb和点云相结合的端到端人体姿态识别方法 | |
CN102831380A (zh) | 一种基于深度图像感应的肢体动作识别方法及*** | |
CN109145802B (zh) | 基于Kinect的多人手势人机交互方法及装置 | |
CN111596767B (zh) | 一种基于虚拟现实的姿态捕获方法和装置 | |
CN105739702A (zh) | 用于自然人机交互的多姿态指尖跟踪方法 | |
CN110210426B (zh) | 基于注意力机制从单幅彩色图像进行手部姿态估计的方法 | |
CN108734194A (zh) | 一种面向虚拟现实的基于单深度图的人体关节点识别方法 | |
CN110135249A (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN104440926A (zh) | 一种基于Kinect的机械臂体感远程控制方法及*** | |
CN106625658A (zh) | 一种实时模仿人体上半身动作的人形机器人控制方法 | |
WO2018045670A1 (zh) | 基于自然手势的虚拟数字雕塑方法 | |
CN105107200A (zh) | 基于实时深度体感交互与增强现实技术的变脸***及方法 | |
CN105225270B (zh) | 一种信息处理方法及电子设备 | |
Sreejith et al. | Real-time hands-free immersive image navigation system using Microsoft Kinect 2.0 and Leap Motion Controller | |
Liu et al. | The study on human action recognition with depth video for intelligent monitoring | |
CN113496168A (zh) | 手语数据采集方法、设备、存储介质 | |
CN203070205U (zh) | 一种基于手势识别的输入设备 | |
CN114296543A (zh) | 一种指尖力检测及手势识别的智能交互***及智能指环 | |
Jayasurya et al. | Gesture controlled AI-robot using Kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20070314 Termination date: 20120127 |