CN104461524A - 基于Kinect的点歌方法 - Google Patents

基于Kinect的点歌方法 Download PDF

Info

Publication number
CN104461524A
CN104461524A CN201410705518.5A CN201410705518A CN104461524A CN 104461524 A CN104461524 A CN 104461524A CN 201410705518 A CN201410705518 A CN 201410705518A CN 104461524 A CN104461524 A CN 104461524A
Authority
CN
China
Prior art keywords
kinect
song
user
palm
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410705518.5A
Other languages
English (en)
Inventor
关沫
梁梦雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang University of Technology
Original Assignee
Shenyang University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang University of Technology filed Critical Shenyang University of Technology
Priority to CN201410705518.5A priority Critical patent/CN104461524A/zh
Publication of CN104461524A publication Critical patent/CN104461524A/zh
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种基于Kinect的点歌方法,基于Kinect的点歌方法凭借Kinect实现无接触式点歌,方法采用Kinect的语音控制功能和骨骼跟踪功能实现智能的点歌操作,用户可以与设备保持一定的距离进行点歌操作。同时还可以通过可拆卸式笔记本电脑进行点歌,再或者把可拆卸式笔记本当做平板进行点歌。使点歌操作变得更智能便利。

Description

基于Kinect的点歌方法
技术领域:本发明提供一种基于Kinect的点歌方法,属于智能化控制点歌软件的方法,具体是以结合无接触式操作的方法实现控制点歌。 
背景技术:为了满足人们日益增长的娱乐需求,娱乐项目智能化程度一直在不断的提高。点歌***原本是KTV娱乐项目中必备的一项,目前点歌***已然不再被娱乐场所独享,在家庭生活中,植入了越来越多原本只在公共场所才有的娱乐设施。点歌***经历了一次又一次的更新换代,由最初的应用LD机点歌到后来的应用电脑点歌,到如今的VOD智能技术点歌。但是点歌时大多是采用电脑前点选或者遥控器点选,过程繁琐,不够智能,不够便利,效果不是很理想。 
发明内容:
发明目的:本发明提供一种基于Kinect的点歌方法,其目的是解决以往的点歌所存在的效果不理想的问题。 
技术方案:本发明是通过以下技术方案来实现的: 
一种基于Kinect的点歌方法,其特征在于:该方法通过显示屏、Kinect设备和电脑实现,电脑为可拆卸式笔记本电脑或者普通电脑;所述Kinect设备用于捕捉语音信息和手势指令完成无接触式点歌,凭借Kinect摄像头获取用户的图像,通过Kinect的语音识别功能获取用户的语音信息,将用户的图像和语音信息通过USB数据线传送给具有信息处理功能的计算机即电脑,最后对接收的图像及语音信息进行处理得到相应的手势控制指令和语音控制指令实现点歌操作。这里的电脑还能以传统的方式进行手动点歌,当电脑选用可拆 卸式笔记本电脑时,它的显示屏能拆卸下来,进而能够充当平板使用,可以在座位上人与人之间相互传递着使用进行点歌。 
该方法包括以下步骤: 
1)将上述的硬件设备连接良好,将Kinect设备接入电脑***,启动设备之后,完成对用户手势的识别跟踪和语音识别; 
2)本发明的无接触式点歌方法部分主要以手势识别和语音识别的方法实现的,手势识别部分,根据Kinect摄像头获取的用户图像,通过信息处理装置即主机电脑,处理用户的手势指令,将处理后的信息反映在显示屏上,语音识别部分,首先捕获指定的单个用户发出的语音信息,然后将得到的语音信息在电脑信息处理装置中进行处理,最后把用户发送的语音指令结果反应在显示屏上; 
3)本发明还包括传统的手动点歌方式,通过电脑键盘直接输入进行点歌,或者可以直接把可拆卸式笔记本电脑的触摸屏部分卸下来进行点歌。 
所述步骤2)中所述的手势识别部分通过Kinect摄像头采集用户手掌的深度信息图像,进而提取出手掌部分,除去其它无用的深度信息,有效地定位掌心并跟踪手掌,把掌心作为圆的圆心,以一定的半径展开得到一个最大的内切圆作为手掌区域,由于手掌中深度坐标均相同,所以手掌的点坐标可以通过平面坐标表示出;Q1(x1,y1),Q2(x2,y2)两点之间的距离计算公式为:  d ( Q 1 , Q 2 ) = ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2 ;
所述步骤2)中,通过滤波方式,对。获取的图像进行识别和目标轨迹的判定,从而快速的确定出掌心位置;式Cr=(Rq,Pq)中Cr表示包含手掌区域的圆,Rq表示圆心即掌心,Pq是圆的半径;通过跟踪手掌完成相应的手势识别操作。 
伸出手掌在胸前平面内同一水平高度处左右反复快速的摇手表示启动Kinect设备准备进入点歌***;伸出手掌在胸前平面内同一水平高度处手掌变换为拳头表示关机;伸出手掌在胸前平面内同一水平高度处从左到右平移一 段距离表示翻到上一页;同理从右到左表示翻到下一页。亦或从下到上平移表示下一页,从上到下表示上一页,有关的一系列手势设定均可结合日常***视角范围小于57度、垂直视角范围小于43度、传感深度范围在1.2米到3.5米之间,所以用户操作时务必要在规定的这个范围内才能捕获到完整的信息。 
所述步骤2)中,语音识别部分通过Kinect麦克风阵列获取音频数据流,首先,通过对用户的语音指令进行特征提取,为了能够完成预想的那些音频指令,还需为这些音频建立一个音频数据库,对语音信息进行采样,从而生成相应的特征矢量,然后,将提取的语音指令与已有的语音模式进行匹配,把匹配度最高的结果作为最后的结果,最后,将匹配出的结果转化为指定的指令反馈在显示屏上,Kinect麦克风阵列可通过音频增强效果算法的处理来屏蔽环境中的噪声,即使在一个面积很大的空间环境中,用户距离麦克风有较远的距离,还是能够很好地对语音进行识别,Kinect设备采用的阵列技术包含有效的噪声消除和回波抑制算法,与此同时采用波束成形技术,通过每个独立设备的响应时间确定音源位置,并尽可能避免环境噪声的影响。 
所述步骤3)中,选用可拆卸式笔记本电脑类的电脑凭借个人的意愿随时卸下触摸屏部分,卸载下的触摸屏相当于普通的平板一样的存在,或在KTV点歌的环境中充当手动触摸屏点歌设备,或更自由的点歌;用户不必每一次点歌都要去手动点歌屏排队等待点歌,在家里坐在沙发上或者床上就实现该过程,亦或在与设备有一定距离的地方进行点歌。 
为了每次无接触式情境下进行点歌时都去跟踪指定的一个用户发出的命令,本方法在Kinect可视范围内有多个用户存在时,在人群中区分出执行点歌操作的用户,Kinect SDK具有分析深度数据和探测人体或者用户轮廓的功能,它一次最多可以识别6个用户,SDK为每一个追踪到的用户编号作为索引,用户索引存储在深度数据的前三位,用户索引位取值范围为0到6,所以*** 可以设定最先发出语音指令或者手势指令的用户为本次操作者,并在结束点歌流程前只去追踪这个用户的语音指令和手势指令,直到这个用户确认发出完成操作指令。 
本方法通过Kinect SDK***开发工具包中相应API应用程序接口获得人体的深度图像与骨骼信息,并且它在获取深度图像过程中不受光照以及环境变化等外部的影响,即使在光照很低的情况下也能够捕获到人体的深度图像和相应的骨骼信息。 
优点及效果:本发明提供一种基于Kinect的点歌方法,基于Kinect的点歌方法凭借Kinect实现无接触式点歌,方法采用Kinect的语音控制功能和骨骼跟踪功能实现智能的点歌操作,用户可以与设备保持一定的距离进行点歌操作。同时还可以通过可拆卸式笔记本电脑进行点歌,再或者把可拆卸式笔记本当做平板进行点歌。使点歌操作变得更智能便利,随心所欲。 
本发明提供一种基于Kinect硬件设备的基础上,实现一种更智能、更便民的点歌方法完成点歌操作。这一方法可以有效的减少点歌操作所需的时间,节省了用户的宝贵时间。无接触式操作还可以给用户带来全新的体验,使用户甚至不需要与设备近距离接触就可以完成所想的操作,而且使操作更加智能化、人性化、具体化。新兴设备Kinect具有广阔的应用空间。让用户认识到与机器的交流甚至可以通过对话和形象化的手势去实现,拉近了人机之间的距离。采用可拆卸式笔记本电脑方法更方便了用户的点歌,采用传统与现代化技术的融合方法,在科技日新月异发展的今天,这项技术的诞生更加引人瞩目。 
附图说明:
图1为本发明的Kinect示意图; 
图2为一种基于Kinect的点歌方法的设备结构示意图; 
图3为基于Kinect的点歌方法的语音识别部分流程示意图。 
具体实施方式:下面结合附图对本发明做进一步的说明: 
如图2所示,本发明提供一种基于Kinect的点歌方法,该方法通过显示屏1、Kinect设备2和电脑3实现,电脑为可拆卸式笔记本电脑或者普通电脑;所述Kinect设备用于捕捉语音信息和手势指令完成无接触式点歌,凭借Kinect摄像头获取用户的图像,通过Kinect的语音识别功能获取用户的语音信息,将用户的图像和语音信息通过USB数据线传送给具有信息处理功能的计算机即电脑,最后对接收的图像和语音信息进行处理得到相应的指令实现点歌操作,这里的电脑还能以传统的方式进行手动点歌,当电脑选用可拆卸式笔记本电脑时,它的显示屏能拆卸下来,进而能够充当平板使用,可以在座位上人与人之间相互传递着使用进行点歌。如果应用在KTV点歌环境中可以有效地节省成本。 
该方法包括以下步骤: 
1)将上述的硬件设备连接良好,将Kinect设备接入电脑***,启动设备之后,完成对用户手势的识别跟踪和语音识别; 
2)本发明的无接触式点歌方法部分主要以手势识别和语音识别的方法实现的,手势识别部分,根据Kinect摄像头获取的用户图像,通过信息处理装置即主机电脑,处理用户的手势指令,将处理后的信息反映在显示屏上,语音识别部分,首先捕获指定的单个用户发出的语音信息,然后将得到的语音信息在电脑信息处理装置中进行处理,最后把用户发送的语音指令结果反应在显示屏上; 
3)本发明还包括传统的手动点歌方式,通过电脑键盘直接输入进行点歌,或者可以直接把可拆卸式笔记本电脑的触摸屏部分卸下来进行点歌。 
所述步骤2)中所述的手势识别部分通过Kinect摄像头采集用户手掌的深度信息图像,进而提取出手掌部分,除去其它无用的深度信息,有效地定位掌心并跟踪手掌,这样不但可以有效地减少外界事物对手势识别所带来的干扰,还可以提高计算效率,把掌心作为圆的圆心,以一定的半径展开得到一个最大的内切圆作为手掌区域,由于手掌中深度坐标均相同,所以手掌的点坐标 可以通过平面坐标表示出;Q1(x1,y1),Q2(x2,y2)两点之间的距离计算公式为:  d ( Q 1 , Q 2 ) = ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2 ;
所述步骤2)中,可以通过一些滤波方式,如卡尔曼滤波方式对获取的图像进行识别和目标轨迹的判定,从而快速的确定出掌心位置;如Cr=(Rq,Pq)中Cr表示包含手掌区域的圆,Rq表示圆心即掌心,Pq是圆的半径;通过跟踪手掌完成相应的手势识别操作,比如:伸出手掌在胸前平面内同一水平高度处左右反复快速的摇手表示启动Kinect设备准备进入点歌***;伸出手掌在胸前平面内同一水平高度处手掌变换为拳头表示关机;伸出手掌在胸前平面内同一水平高度处从左到右平移一段距离表示翻到上一页;同理从右到左表示翻到下一页。亦或从下到上平移表示下一页,从上到下表示上一页。有关的一系列手势设定均可结合日常***视角范围小于57度、垂直视角范围小于43度、传感深度范围在1.2米到3.5米之间。所以用户操作时务必要在规定的这个范围内才能捕获到完整的信息。 
所述步骤2)中,语音识别部分通过Kinect麦克风阵列获取音频数据流,首先,通过对用户的语音指令进行特征提取,为了能够完成预想的那些音频指令,还需为这些音频建立一个音频数据库,对语音信息进行采样,从而生成相应的特征矢量,然后,将提取的语音指令与已有的语音模式进行匹配,把匹配度最高的结果作为最后的结果,最后,将匹配出的结果转化为指定的指令反馈在显示屏上。Kinect麦克风阵列可通过音频增强效果算法的处理来屏蔽环境中的噪声,即使在一个面积很大的空间环境中,用户距离麦克风有较远的距离,还是能够很好地对语音进行识别,Kinect设备采用的阵列技术包含有效的噪声消除和回波抑制算法,与此同时采用波束成形技术,通过每个独立设备的响应时间确定音源位置,并尽可能避免环境噪声的影响。 
所述步骤3)中,选用可拆卸式笔记本电脑类的电脑可以凭借个人的意愿 随时卸下触摸屏部分,卸载下的触摸屏相当于普通的平板一样的存在,也可以在KTV点歌的环境中充当手动触摸屏点歌设备,可以更自由的点歌;用户可以不必每一次点歌都要去手动点歌屏排队等待点歌,也可以在家里坐在沙发上或者床上,亦或在与设备有一定距离的地方进行点歌。 
为了每次无接触式情境下进行点歌时都去跟踪指定的一个用户发出的命令,本方法在Kinect可视范围内有多个用户存在时,它可以在人群中区分出执行点歌操作的用户,Kinect SDK具有分析深度数据和探测人体或者用户轮廓的功能,它一次最多可以识别6个用户,SDK为每一个追踪到的用户编号作为索引,用户索引存储在深度数据的前三位,用户索引位取值范围为0到6,所以***可以设定最先发出语音指令或者手势指令的用户为本次操作者,并在结束点歌流程前只去追踪这个用户的语音指令和手势指令,直到这个用户确认发出完成操作指令。 
由于考虑到点歌时候周围环境的问题,比如灯光效果不好的环境中,比如KTV的包房中,光线不是很好的情境下。本发明能够通过Kinect SDK***开发工具包中相应API应用程序接口获得人体的深度图像与骨骼信息,并且它在获取深度图像过程中不受光照以及环境变化等外部的影响,即使在光照很低的情况下也能够捕获到人体的深度图像和相应的骨骼信息。如此就可以不必担心在灯光昏暗的环境中,难以捕捉到用户手部所处位置这样的问题。 
下面结合附图做进一步说明,本发明所使用的关键设备Kinect示意图为如图1所示,将Kinect与相应的硬件设备点歌机触摸屏连接,这个硬件设备是实现语音/手势点歌操作的决定性设备。外观上看他有三只“眼睛”,它们自左向右分别是红外投影机、彩色摄像头、红外深度投影头。Kinect比较容易拆卸,但它的内部结构复杂,其中包含很多的感应器元件和处理芯片,除了语音指令和体感操作指令外,Kinect没有其他形式的用户输入,输入***的关键是由麦克风和摄像头组成的感应***。 
图2所示为一种基于Kinect的点歌方法结构示意图,图中为用户与硬件设备的示意图,Kinect硬件设备用来获取语音指令和手势识别任务。用户只需处于Kinect可视范围内,面对向点歌机并通过发出相应指令就可以完成点歌操作。 
图3为一种基于Kinect的点歌方法的语音识别部分流程示意图,首先对用户所发送的语音信息进行采样处理,然后生成相应的特征值进行模式匹配操作,与***本身的语音指令数据库进行匹配,完成语音指令后把所得的结果再次反馈给用户。 
本发明在硬件、软件的结合中得以实现,本发明可以包括在具有计算机可用介质的物品中。该介质在其中具有例如计算机可读程序代码装置或者逻辑来提供和使用本发明的能力。该制造物品可作为计算机***的一部分或者单独出售。所有上述变化被认为是要求保护的本发明的一部分。 
本发明可以解决点歌方法所存在的问题,这种点歌方法可以在家里使用,也可以应用到未来的KTV点歌环境中。用户既可以在座位前手动输入进行点歌或者在座位上相互传递可拆卸式笔记本的触摸屏当作平板一样进行点歌,还可以在与设备有一段距离的地方通过手势动作和语音指令开启点歌模式进行点歌,使现代化生活变得更加智能化。 
综上所述,本发明目的是让点歌操作变得更智能、更便利、为人们生活娱乐带来全新体验并能够简化操作。 

Claims (9)

1.一种基于Kinect的点歌方法,其特征在于:该方法通过显示屏、Kinect设备和电脑实现,电脑为可拆卸式笔记本电脑或者普通电脑;所述Kinect设备用于捕捉语音信息和手势指令完成无接触式点歌,凭借Kinect摄像头获取用户的图像,通过Kinect的语音识别功能获取用户的语音信息,将用户的图像和语音信息通过USB数据线传送给具有信息处理功能的计算机即电脑,最后对接收的图像及语音信息进行处理得到相应的手势控制指令和语音控制指令实现点歌操作。这里的电脑还能以传统的方式进行手动点歌,当电脑选用可拆卸式笔记本电脑时,它的显示屏能拆卸下来,进而能够充当平板使用,可以在座位上人与人之间相互传递着使用进行点歌。 
2.根据权利要求1所述的基于Kinect的点歌方法,其特征在于:该方法包括以下步骤: 
1)将上述的硬件设备连接良好,将Kinect设备接入电脑***,启动设备之后,完成对用户手势的识别跟踪和语音识别; 
2)本发明的无接触式点歌方法部分主要以手势识别和语音识别的方法实现的,手势识别部分,根据Kinect摄像头获取的用户图像,通过信息处理装置即主机电脑,处理用户的手势指令,将处理后的信息反映在显示屏上,语音识别部分,首先捕获指定的单个用户发出的语音信息,然后将得到的语音信息在电脑信息处理装置中进行处理,最后把用户发送的语音指令结果反应在显示屏上; 
3)本发明还包括传统的手动点歌方式,通过电脑键盘直接输入进行点歌,或者可以直接把可拆卸式笔记本电脑的触摸屏部分卸下来进行点歌。 
3.根据权利要求2所述的基于Kinect的点歌方法,其特征在于: 
所述步骤2)中所述的手势识别部分通过Kinect摄像头采集用户手掌的深度信息图像,进而提取出手掌部分,除去其它无用的深度信息,有效地定位掌心并跟踪手掌,把掌心作为圆的圆心,以一定的半径展开得到一个最大的内 切圆作为手掌区域,由于手掌中深度坐标均相同,所以手掌的点坐标可以通过平面坐标表示出;Q1(x1,y1),Q2(x2,y2)两点之间的距离计算公式为: 
4.根据权利要求2所述的基于Kinect的点歌方法,其特征在于:所述步骤2)中,通过滤波方式,对获取的图像进行识别和目标轨迹的判定,从而快速的确定出掌心位置;式Cr=(Rq,Pq)中Cr表示包含手掌区域的圆,Rq表示圆心即掌心,Pq是圆的半径;通过跟踪手掌完成相应的手势识别操作。 
5.根据权利要求4所述的基于Kinect的点歌方法,其特征在于:伸出手掌在胸前平面内同一水平高度处左右反复快速的摇手表示启动Kinect设备准备进入点歌***;伸出手掌在胸前平面内同一水平高度处手掌变换为拳头表示关机;伸出手掌在胸前平面内同一水平高度处从左到右平移一段距离表示翻到上一页;同理从右到左表示翻到下一页。亦或从下到上平移表示下一页,从上到下表示上一页,有关的一系列手势设定均可结合日常***视角范围小于57度、垂直视角范围小于43度、传感深度范围在1.2米到3.5米之间,所以用户操作时务必要在规定的这个范围内才能捕获到完整的信息。 
6.根据权利要求2所述的基于Kinect的点歌方法,其特征在于:所述步骤2)中,语音识别部分通过Kinect麦克风阵列获取音频数据流,首先,通过对用户的语音指令进行特征提取,为了能够完成预想的那些音频指令,还需为这些音频建立一个音频数据库,对语音信息进行采样,从而生成相应的特征矢量,然后,将提取的语音指令与已有的语音模式进行匹配,把匹配度最高的结果作为最后的结果,最后,将匹配出的结果转化为指定的指令反馈在显示屏上,Kinect麦克风阵列可通过音频增强效果算法的处理来屏蔽环境中的噪声,即使在一个面积很大的空间环境中,用户距离麦克风有较远的距离,还是能够很好地对语音进行识别,Kinect设备采用的阵列技术包含有效的噪声消除和回波抑制算法,与此同时采用波束成形技术,通过每个独立设备的响应时间确 定音源位置,并尽可能避免环境噪声的影响。 
7.根据权利要求2所述的基于Kinect的点歌方法,其特征在于:所述步骤3)中,选用可拆卸式笔记本电脑类的电脑凭借个人的意愿随时卸下触摸屏部分,卸载下的触摸屏相当于普通的平板一样的存在,或在KTV点歌的环境中充当手动触摸屏点歌设备,或更自由的点歌;用户不必每一次点歌都要去手动点歌屏排队等待点歌,在家里坐在沙发上或者床上就实现该过程,亦或在与设备有一定距离的地方进行点歌。 
8.根据权利要求2所述的基于Kinect的点歌方法,其特征在于:为了每次无接触式情境下进行点歌时都去跟踪指定的一个用户发出的命令,本方法在Kinect可视范围内有多个用户存在时,在人群中区分出执行点歌操作的用户,Kinect SDK具有分析深度数据和探测人体或者用户轮廓的功能,它一次最多可以识别6个用户,SDK为每一个追踪到的用户编号作为索引,用户索引存储在深度数据的前三位,用户索引位取值范围为0到6,所以***可以设定最先发出语音指令或者手势指令的用户为本次操作者,并在结束点歌流程前只去追踪这个用户的语音指令和手势指令,直到这个用户确认发出完成操作指令。 
9.根据权利要求2所述的基于Kinect的点歌方法,其特征在于: 
本方法通过Kinect SDK***开发工具包中相应API应用程序接口获得人体的深度图像与骨骼信息,并且它在获取深度图像过程中不受光照以及环境变化等外部的影响,即使在光照很低的情况下也能够捕获到人体的深度图像和相应的骨骼信息。 
CN201410705518.5A 2014-11-27 2014-11-27 基于Kinect的点歌方法 Pending CN104461524A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410705518.5A CN104461524A (zh) 2014-11-27 2014-11-27 基于Kinect的点歌方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410705518.5A CN104461524A (zh) 2014-11-27 2014-11-27 基于Kinect的点歌方法

Publications (1)

Publication Number Publication Date
CN104461524A true CN104461524A (zh) 2015-03-25

Family

ID=52907635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410705518.5A Pending CN104461524A (zh) 2014-11-27 2014-11-27 基于Kinect的点歌方法

Country Status (1)

Country Link
CN (1) CN104461524A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105353959A (zh) * 2015-10-30 2016-02-24 小米科技有限责任公司 控制列表滑动的方法及装置
CN108733200A (zh) * 2017-04-18 2018-11-02 芦伟杰 一种ar屏幕体感控制权分配方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019643A1 (en) * 2010-07-26 2012-01-26 Atlas Advisory Partners, Llc Passive Demographic Measurement Apparatus
CN102769802A (zh) * 2012-06-11 2012-11-07 西安交通大学 一种智能电视机的人机交互***及其交互方法
CN103118227A (zh) * 2012-11-16 2013-05-22 佳都新太科技股份有限公司 一种基于kinect的摄像机PTZ控制方法、装置和***
CN103268153A (zh) * 2013-05-31 2013-08-28 南京大学 演示环境下基于计算机视觉的人机交互***及交互方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019643A1 (en) * 2010-07-26 2012-01-26 Atlas Advisory Partners, Llc Passive Demographic Measurement Apparatus
CN102769802A (zh) * 2012-06-11 2012-11-07 西安交通大学 一种智能电视机的人机交互***及其交互方法
CN103118227A (zh) * 2012-11-16 2013-05-22 佳都新太科技股份有限公司 一种基于kinect的摄像机PTZ控制方法、装置和***
CN103268153A (zh) * 2013-05-31 2013-08-28 南京大学 演示环境下基于计算机视觉的人机交互***及交互方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄康泉 等: ""Kinect在视频会议***中的应用"", 《广西人学学报:自然科学版》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105353959A (zh) * 2015-10-30 2016-02-24 小米科技有限责任公司 控制列表滑动的方法及装置
CN108733200A (zh) * 2017-04-18 2018-11-02 芦伟杰 一种ar屏幕体感控制权分配方法

Similar Documents

Publication Publication Date Title
US11914792B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
US11132065B2 (en) Radar-enabled sensor fusion
JP6968154B2 (ja) 制御システムならびに制御処理方法および装置
KR102162373B1 (ko) 주체와 객체의 연관
US9921660B2 (en) Radar-based gesture recognition
US9658695B2 (en) Systems and methods for alternative control of touch-based devices
US8823642B2 (en) Methods and systems for controlling devices using gestures and related 3D sensor
CN103353935B (zh) 一种用于智能家居***的3d动态手势识别方法
CN106020478B (zh) 一种智能终端操控方法、装置和智能终端
CN103890696A (zh) 经认证的手势辨识
CN102932212A (zh) 一种基于多通道交互方式的智能家居控制***
WO2014117647A1 (zh) 一种非接触式手势控制方法及电子终端设备
CN104871227B (zh) 使用深度照相机的遥控
CN106468917B (zh) 一种可触摸现场实时视频图像的远程呈现交互方法和***
KR20150097049A (ko) 네추럴 ui를 이용한 자율서빙 로봇 시스템
CN104461524A (zh) 基于Kinect的点歌方法
JP4053903B2 (ja) ポインティング方法、装置、およびプログラム
TWI587175B (zh) Dimensional pointing control and interaction system
Yeo et al. OmniSense: Exploring Novel Input Sensing and Interaction Techniques on Mobile Device with an Omni-Directional Camera
WO2023035177A1 (zh) 一种目标确认方法、装置及手持***
KR20210116838A (ko) 제스처에 기초하여, 음성 입력을 처리하는 전자 장치 및 그 동작 방법
CN109542654A (zh) 自动贩卖机和确定用户选定商品的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20150325