CN103150020A - 一种三维指控操作方法及*** - Google Patents
一种三维指控操作方法及*** Download PDFInfo
- Publication number
- CN103150020A CN103150020A CN2013100822355A CN201310082235A CN103150020A CN 103150020 A CN103150020 A CN 103150020A CN 2013100822355 A CN2013100822355 A CN 2013100822355A CN 201310082235 A CN201310082235 A CN 201310082235A CN 103150020 A CN103150020 A CN 103150020A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- finger
- module
- display surface
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明提供了一种三维指控操作方法及***,通过获取显示器件表面及前方指定空间内手指运动的三维信息,接着从三维信息中识别出手指头部中心点的三维坐标值和运动轨迹信息,然后将三维坐标值和运动轨迹通过显示模组进行显示,最终依据三维坐标值和运动轨迹信息执行操作命令,实现了手指操控电脑的精确定位及其可视化程度。
Description
技术领域
本发明涉及信息技术领域,特别涉及一种三维指控操作方法及***。
背景技术
随着信息社会的快速发展,人类对信息处理操作的便捷性提出了更高的要求。与键盘和鼠标相比,触控屏进一步简化了智能手机、平板电脑、笔记本电脑等信息设备结构和操作,为信息处理操作的便捷性提供了新的改进空间。
但是,现有的触控屏需要用手指或触控笔在显示屏上进行触摸操作。当用手指进行触控操作时,会在显示屏上留下污迹,在公共使用的情况下(例如,街头的ATM),还会将显示屏的污秽和细菌沾染到手指头,传染疾病;另一方面,当用指头触摸时,会遮盖手指下的显示内容,致使眼睛无法看到手指触控点的精确位置及其四周信息,造成后续操作的困惑。使用触控笔操作则不能进行多点触控,触控笔的拾拿和收纳也颇为费事,笔尖还会给屏幕表面带来一定的划伤;尤其是,在同时配备触控屏和实体键盘的电脑(例如Microsoft Surface)上进行操作时,需要在键盘操作和触控操作之间反复变换,如果使用触控笔进行触控操作,则触控笔的反复拿放会影响工作效率。
为了克服上述现有技术的不足,本发明提供了一种三维指控操作方法及***,以实现手指操控电脑的精确定位及其可视化,提高电脑操控的精度、效率、可视化,是目前信息技术领域亟待解决的问题之一。
发明内容
有鉴于此,本发明实施例提出了一种三维指控操作方法及***,通过获取显示器件表面及前方指定空间内手指运动的三维信息,接着从三维信息中识别出手指头部中心点的三维坐标值和运动轨迹信息,然后将三维坐标值和运动轨迹通过显示模组进行显示,最终依据三维坐标值和运动轨迹信息执行操作命令,实现了手指操控电脑的精确定位及其可视化程度。
为解决上述技术问题,本发明实施例的目的是通过以下技术方案实现的:
一种三维指控操作方法,包括:
步骤一、获取显示器件表面及前方指定空间内手指头部运动的三维信息;
步骤二、从三维信息中识别出手指头部中心点的三维坐标值和运动轨迹信息;
步骤三、将手指头部三维坐标值和运动轨迹通过显示模组进行显示;
步骤四、依据手指头部三维坐标值和运动轨迹信息执行操作命令。
优选的,上述步骤一中,是通过两个摄像头获取手指头部运动的三维信息。
优选的,上述两个摄像头分别安装在显示屏相邻的两角或两角附近。
优选的,上述两个摄像头光轴相互垂直且与显示屏大致平行地指向对角方向。
优选的,当手指头部进入有效摄像范围内时,所述摄像头将分别从相互垂直方向的带状区域内采集手指运动的二维影像。
优选的,上述步骤二中,是根据人手指的尺寸特征和形状特征从获取的三维信息中识别出手指头部中心点的三维坐标值,并屏蔽三维信息中的其他噪音。
优选的,上述步骤三中,所述显示模组进行显示,是通过光标的形状表示手指头部中心点距离显示面的远近。
优选的,上述步骤四中,依据手指头部三维坐标值和运动轨迹信息执行操作命令可包括:
(1)移动光标:当手指头部一进入有效识别范围内,显示屏幕就出现光标,其中光标形状表示手指头部中心点距离显示面的远近,光标在显示面的位置为手指头部中心点在显示面的法向投影。当手指移动时,光标的形状和位置根据手指头部中心点的坐标值实时发生相应的变化。
(2)按下/弹起:在某些特定场景中(例如按钮的上方),手指头部进入识别范围内,短时间内与显示面距离缩小/增大一定的尺寸,但在显示面平行方向位置基本未变。
(3)进入/抽出:在某些特定场景中(例如游戏和三维解剖),手指头部进入识别范围内,短时间内与显示面距离缩小/增大的尺寸超过了“按下/弹起”的距离,但在显示面平行方向位置基本未变。
(4)划开:在某些特定场景中(例如游戏和三维解剖),“进入”后,手指头部位置在显示面平行方向变化,而在显示面法向距离几乎不变。
(5)劈开:在某些特定场景中(例如游戏和三维解剖),手指头部进入识别范围内,手指头部位置在显示面平行方向不断变化,且显示面法向距离短时间内变小。
(6)单击:当“按下”后立即“弹起”。
(7)双击/三击:连续两次/三次“单击”。
(8)确认:手指头部在识别范围内,其运动轨迹在短时间内与显示面平行的平面呈现“√”。
(9)否认:手指头部在识别范围内,其运动轨迹短时间内在与显示面平行的平面呈现“Ⅹ”。
一种三维指控操作***,包括三维指控传感模组、三维指控IO处理模组、三维指控显示模组及三维指控主机模组,通过获取显示器件表面及前方指定空间内手指运动的三维信息,接着从三维信息中识别出手指中心点的三维坐标值和运动轨迹信息,然后将三维坐标值和运动轨迹通过显示模组进行显示,最终依据三维坐标值和运动轨迹信息执行操作命令。
优选的,上述三维指控传感模组用于获取显示器件表面及前方指定空间内手指运动的三维信息。
优选的,上述三维指控IO处理模组用于从三维信息中识别出手指头部中心点的三维坐标值和运动轨迹信息。
优选的,上述三维指控显示模组用于将手指头部中心点三维坐标值和运动轨迹通过显示模组进行显示。
优选的,上述三维指控主机模组用于依据手指头部中心点三维坐标值和运动轨迹信息执行操作命令。
优选的,上述三维指控传感模组为安装在显示屏前的框架,框架内四周平行排布两排红外线发射管和红外线接收管,形成两层平行的横竖交叉的红外线矩阵。
综上所述,本发明提供了一种三维指控操作方法及***,通过获取显示器件表面及前方指定空间内手指运动的三维信息,接着从三维信息中识别出手指中心点的三维坐标值和运动轨迹信息,然后将三维坐标值和运动轨迹通过显示模组进行显示,最终依据三维坐标值和运动轨迹信息执行操作命令,实现了手指操控电脑的精确定位及其可视化程度。
附图说明
图1为本发明实施例一种三维指控操作方法示意图;
图2为本发明实施例一种三维指控***逻辑结构示意图;
图3为本发明实施例之摄像头安装位置示意图。
具体实施方式
本发明实施例提供的一种三维指控操作方法及***,通过获取显示器件表面及前方指定空间内手指运动的三维信息,接着从三维信息中识别出手指中心点的三维坐标值和运动轨迹信息,然后将三维坐标值和运动轨迹通过显示模组进行显示,最终依据三维坐标值和运动轨迹信息执行操作命令,实现了手指操控电脑的精确定位及其可视化程度。
为使本发明的目的、技术方案及优点更加清楚明白,下面参照附图并举实施例,对本发明进一步详细说明。
本发明实施例提供了一种三维指控操作方法,如图1所示,具体步骤包括:
步骤一、获取显示器件表面及前方指定空间内手指运动的三维信息;
具体而言,在本发明实施例中,可通过图像获取设备来获取显示器件表面及前方指定空间内手指运动的三维信息。在本方案中,图像获取设备可通过三维指控传感模组,如两个摄像头及相关器件组成,分别安装在显示屏相邻的两角或两角附近。当电脑启动或唤醒时,两个摄像头打开,光轴相互垂直且与显示屏大致平行地指向对角方向。每一摄像头有效摄像范围都限定在显示屏幕有效显示面接近距离内(例如100mm以内),当手指头部进入有效摄像范围内时,两个摄像头分别从相互垂直方向的带状区域内采集手指运动的二维影像,传递给三维指控IO处理模块以获得手指头部的三维坐标值和运动轨迹信息。当电脑睡眠或关闭时摄像头关闭。
此外,图像获取设备可通过三维指控传感模组,如安装在显示屏前的框架,框架内四周平行排布两排红外线发射管和红外线接收管,形成两层平行的横竖交叉的红外线矩阵。两层平行的红外线矩阵相隔一定间距(例如20mm),当手指进入红外线矩阵时就会挡住经过该位置的横竖红外线,经过通过两层红外线矩阵扫描可以确定阻隔的红外线的确切位置,据此计算出手指头部的三维坐标值。
步骤二、从三维信息中识别出手指中心点的三维坐标值和运动轨迹信息;
具体而言,在本发明实施例中,可包含有一个三维指控IO处理模组,三维指控IO处理模组根据人手指的尺寸特征和形状特征从三维指控传感模组传送的信息中识别出手指头部中心点的三维坐标值,并屏蔽传感模组传来信息中的其他噪音,然后将手指头部中心点的三维坐标值传送到三维指控显示模组和三维指控主机模组。
步骤三、将手指头部中心点三维坐标值和运动轨迹通过显示模组进行显示;
具体而言,在本发明实施例中,包含一个三维指控显示模组,用于接收从三维指控IO处理模组传送过来的手指头部中心点三维坐标值和运动轨迹信息,并通过显示设备进行显示手指头部三维坐标位置和运动轨迹及其他需显示的信息。
进一步的,在本案中,三维指控显示模组通过光标的形状表示手指头部中心点距离显示面的远近。
步骤四、依据手指头部中心点三维坐标值和运动轨迹信息执行操作命令。
具体而言,在本发明实施例中,包含一个三维指控主机模组,用于根据手指头部三维运行轨迹判断操作者的操作意图、执行相应的操作。
进一步的,在本方案中,可通过如下手指头部三维运行轨迹的识别来进行相应的操作:
(1)移动光标:当手指(或者触控笔,下同)头部进入识别范围内,显示屏幕出现光标,其中光标的形状表示手指头部中心点坐标值z值的大小,光标位置表示手指头部中心点x、y值的大小;当手指移动时,光标的形状和位置根据手指头部中心点的坐标值实时发生相应的变化。
(2)按下/弹起:当手指头部进入识别范围内时,z值短时间内(例如<0.1s)变小/大(例如z值减少/增加了5-18mm),但x、y的基本未变(例如变化范围小于±3mm)
(3)进入/抽出:当手指头部在识别范围内,z值短时间内(例如<0.1s)变小/大(例如z值减少/增加了18mm以上),但x、y的基本未变(例如变化范围小于±3mm),此操作多用于游戏和三维解剖
(4)划开:“进入”后x、y值变化,但z值几乎不变(例如变化范围小于±3mm),此操作多用于游戏和三维解剖
(5)劈开:手指头部在识别范围内,x、y、z值变化,且z值短时间内(例如<0.2s)变小(例如z值减少18mm以上),此操作多用于游戏和三维解剖
(6)单击:当“按下”后立即“弹起”
(7)双击/三击:连续两次/三次“单击”
(8)确认:手指头部在识别范围内,在短时间(例如<0.1s)内其运动轨迹在x、y平面呈现“√”
(9)否认:手指头部在识别范围内,在短时间(例如<0.1s)内其运动轨迹在x、y平面呈现“Ⅹ”
(10)其它:类同微软公司的“windows”或苹果公司“IOS”操作***的触控操作。
另外,本发明实施例还提供了一种三维指控操作***。如图2所示,为本发明实施例提供的一种三维指控操作***示意图。
一种三维指控操作***,包括三维指控传感模组11、三维指控IO处理模组12、三维指控显示模组13及三维指控主机模组14。
三维指控传感模组11,用于获取显示器件表面及前方指定空间内手指运动的三维信息;
具体而言,在本发明实施例中,可通过图像获取设备来获取显示器件表面及前方指定空间内手指运动的三维信息。在本方案中,图像获取设备可通过三维指控传感模组,如两个摄像头及相关器件组成,分别安装在显示屏相邻的两角或两角附近。当电脑启动或唤醒时,两个摄像头打开,光轴相互垂直且与显示屏大致平行地指向对角方向。每一摄像头有效摄像范围都限定在显示屏幕有效显示面接近距离内(例如100mm以内),当手指头部进入有效摄像范围内时,两个摄像头分别从相互垂直方向的带状区域内采集手指运动的二维影像,传递给三维指控IO处理模块以获得手指头部的三维坐标值和运动轨迹信息。当电脑睡眠或关闭时摄像头关闭。
此外,图像获取设备可通过三维指控传感模组,如安装在显示屏前的框架,框架内四周平行排布两排红外线发射管和红外线接收管,形成两层平行的横竖交叉的红外线矩阵。两层平行的红外线矩阵相隔一定间距(例如20mm),当手指进入红外线矩阵时就会挡住经过该位置的横竖红外线,经过通过两层红外线矩阵扫描可以确定阻隔的红外线的确切位置,据此计算出手指头部的三维坐标值。
三维指控IO处理模组12,用于从三维信息中识别出手指头部中心点的三维坐标值和运动轨迹信息;
具体而言,在本发明实施例中,可包含有一个三维指控IO处理模组,三维指控IO处理模组根据人手指的尺寸特征和形状特征从三维指控传感模组传送的信息中识别出手指头部中心点的三维坐标值,并屏蔽传感模组传来信息中的其他噪音,然后将手指头部中心点的三维坐标值传送到三维指控显示模组和三维指控主机模组。
三维指控显示模组13,用于将三维坐标值和运动轨迹通过显示模组进行显示;
具体而言,在本发明实施例中,包含一个三维指控显示模组,用于接收从三维指控IO处理模组传送过来的手指头部中心点三维坐标值和运动轨迹信息,并通过显示设备进行显示手指头部三维坐标位置和运动轨迹及其他需显示的信息。
进一步的,在本案中,三维指控显示模组通过光标的形状表示手指头部中心点距离显示面的远近。
三维指控主机模组14,用于依据三维坐标值和运动轨迹信息执行操作命令。
具体而言,在本发明实施例中,包含一个三维指控主机模组,用于根据手指头部三维运行轨迹判断操作者的操作意图执行相应的操作。
进一步的,在本方案中,可通过如下手指头部三维运行轨迹的识别来进行相应的操作:
(1)移动光标:当手指(或者触控笔,下同)头部进入识别范围内,显示屏幕出现光标,其中光标的形状表示手指头部中心点坐标值z值的大小,光标位置表示手指头部中心点x、y值的大小;当手指移动时,光标的形状和位置根据手指头部中心点的坐标值实时发生相应的变化。
(2)按下/弹起:当手指头部进入识别范围内时,z值短时间内(例如<0.1s)变小/大(例如z值减少/增加了5-18mm),但x、y的基本未变(例如变化范围小于±3mm)
(3)进入/抽出:当手指头部在识别范围内,z值短时间内(例如<0.1s)变小/大(例如z值减少/增加了18mm以上),但x、y的基本未变(例如变化范围小于±3mm),此操作多用于游戏和三维解剖
(4)划开:“进入”后x、y值变化,但z值几乎不变(例如变化范围小于±3mm),此操作多用于游戏和三维解剖
(5)劈开:手指头部在识别范围内,x、y、z值变化,且z值短时间内(例如<0.2s)变小(例如z值减少18mm以上),此操作多用于游戏和三维解剖
(6)单击:当“按下”后立即“弹起”
(7)双击/三击:连续两次/三次“单击”
(8)确认:手指头部在识别范围内,在短时间(例如<0.1s)内其运动轨迹在x、y平面呈现“√”
(9)否认:手指头部在识别范围内,在短时间(例如<0.1s)内其运动轨迹在x、y平面呈现“Ⅹ”
(10)其它:类同微软公司的“windows”或苹果公司“IOS”操作***的触控操作。
即,根据手指头部中心点的三维运行轨迹判断操作者意图执行相应的操作命令,包含移动光标、进入、划开、劈开等多种操作方法。
在图2所示的一种三维指控***逻辑结构示意图中,三维指控显示模组13由显示屏幕以及其它显示器件组成,用于显示电脑输出的显示信息和手指头部三维坐标位置。其中,显示屏幕为平面,其有效显示区域在显示屏幕内,用三维直角坐标系(x,y,z)描述有效显示区域及前方空间,其中有效显示区域左上角为坐标原点,原点向右为x轴正向方向,原点向下为y轴正向方向,有效显示区域的前方为z轴正向方向。
所述的三维指控传感模组11由两个摄像头组成,参见图3中的摄像头21、22,分别安装在三维指控显示模块13显示屏幕左上角和右上角。当电脑启动或唤醒时,两个摄像头分别从左、右两角弹出并打开,其光轴24、25相互垂直,分别朝向右下角和左下角,与显示屏大致平行;每一摄像头有效摄像范围都在三维指控显示模块13的显示屏幕有效显示面23前方50mm以内。当手指头部进入识别范围内时,能够同时从相互垂直方向的带状区域采集手指影像二维画面,并传送到三维指控IO处理模组12。当电脑睡眠或关闭时摄像头关闭并收回。
所述的三维指控IO处理模组12主要用于处理电脑输出的显示信息和传感模组11传送来拍摄信息,将处理结果中的显示信息传送到显示模组13,将处理结果中的操作信息传送到主机模组14。由于传感模组11传送来的是两个摄像机从相互垂直方向拍摄的两维画面,IO处理模组12根据人类手指的尺寸特征和形状特征能够从中提取出手指头部中心点的三维坐标值,并屏蔽传感模组11传来信息中的其他噪音,然后把该三维坐标值传送到显示模组13和主机模组14。显示模组13通过光标的形状表示其z值大小,通过光标位置表示其x、y值大小。
所述的三维指控主机模组14根据手指头部中心点三维坐标值的运动轨迹判断操作者的意图执行相应的操作。
在本发明的另一个实施例中,三维指控传感模组为显示屏前的框架,框架里设计有电路板,框架内四周平行排布两排红外线发射管和红外线接收管,形成两层平行的横竖交叉的红外线矩阵,两层红外线矩阵相隔20mm。当手指或触控笔进入红外线矩阵内时,手指或触控笔就会挡住经过该位置的横竖红外线,经过红外线矩阵扫描可以确定阻隔的红外线的确切位置,根据人类手指的尺寸和形状特征,经过IO处理模块计算可以判断出触摸点在屏幕上的x、y坐标位置并屏蔽其他噪音;通过两层红外线矩阵可以得到手指头部坐标z值两个离散值。
可见,相比于现有技术,本发明一种三维指控***通过三维指控传感模组、三维指控IO处理模组、三维指控显示模组以及三维指控主机模组间的相互协作,使得用户能够用手指进行非接触操控电脑,同时实现了手指操控电脑的精确定位及其可视化,并实现了非接触操控以及与触控的联合操作,扩大了操控的应用范围,提高了操控的精度、维度、效率以及可视化程度。
本领域普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
综上所述,本文提供了一种三维指控操作方法及***,通过获取显示器件表面及前方指定空间内手指运动的三维信息,接着从三维信息中识别出手指中心点的三维坐标值和运动轨迹信息,然后将三维坐标值和运动轨迹通过显示模组进行显示,最终依据三维坐标值和运动轨迹信息执行操作命令,实现了手指操控电脑的精确定位及其可视化程度。
以上对本发明所提供的一种三维指控操作方法及***进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方案;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (14)
1.一种三维指控操作方法,其特征在于,所述方法包括:
步骤一、获取显示器件表面及前方指定空间内手指运动的三维信息;
步骤二、从三维信息中识别出手指头部中心点的三维坐标值和运动轨迹信息;
步骤三、将手指头部三维坐标值和运动轨迹通过显示模组进行显示;
步骤四、依据手指头部三维坐标值和运动轨迹信息执行操作命令。
2.根据权利要求1所述的方法,其特征在于,所述步骤一中,是通过摄像头获取手指头部运动的三维信息。
3.根据权利要求2所述的方法,其特征在于,所述摄像头安装在显示屏相邻的两角或两角附近。
4.根据权利要求2所述的方法,其特征在于,所述摄像头光轴相互垂直且与显示屏大致平行地指向对角方向。
5.根据权利要求2所述的方法,其特征在于,当手指头部进入有效摄像范围内时,所述摄像头将分别从相互垂直方向的带状区域内采集手指运动的二维影像。
6.根据权利要求1所述的方法,其特征在于,所述步骤二中,是根据人手指的尺寸特征和形状特征从获取的三维信息中识别出手指头部中心点的三维坐标值,并屏蔽三维信息中的其他噪音。
7.根据权利要求1所述的方法,其特征在于,所述步骤三中,所述显示模组进行显示,是通过光标的形状表示手指头部中心点距离显示面的远近。
8.根据权利要求1所述的方法,其特征在于,所述步骤四中,依据三维坐标值和运动轨迹信息执行操作命令包括:
(1)移动光标:当手指头部一进入有效识别范围内,显示屏幕就出现光标,其中光标形状表示手指头部中心点距离显示面的远近,光标在显示面的位置为手指头部中心点在显示面的法向投影。当手指移动时,光标的形状和位置根据手指头部中心点的坐标值实时发生相应的变化;
(2)按下/弹起:在某些特定场景中(例如按钮的上方),手指头部进入识别范围内,短时间内与显示面距离缩小/增大一定的尺寸,但在显示面平行方向位置基本未变;
(3)进入/抽出:在某些特定场景中(例如游戏和三维解剖),手指头部进入识别范围内,短时间内与显示面距离缩小/增大的尺寸超过了“按下/弹起”的距离,但在显示面平行方向位置基本未变;
(4)划开:在某些特定场景中(例如游戏和三维解剖),“进入”后,手指头部位置在显示面平行方向变化,而在显示面法向距离几乎不变;
(5)劈开:在某些特定场景中(例如游戏和三维解剖),手指头部进入识别范围内,手指头部位置在显示面平行方向不断变化,且显示面法向距离短时间内变小;
(6)单击:当“按下”后立即“弹起”;
(7)双击/三击:连续两次/三次“单击”;
(8)确认:手指头部在识别范围内,其运动轨迹在短时间内与显示面平行的平面呈现“√”;
(9)否认:手指头部在识别范围内,其运动轨迹短时间内在与显示面平行的平面呈现“Ⅹ”。
9.一种三维指控操作***,其特征在于,所述***包括三维指控传感模组、三维指控IO处理模组、三维指控显示模组及三维指控主机模组,通过获取显示器件表面及前方指定空间内手指运动的三维信息,接着从三维信息中识别出手指中心点的三维坐标值和运动轨迹信息,然后将三维坐标值和运动轨迹通过显示模组进行显示,最终依据三维坐标值和运动轨迹信息执行操作命令。
10.根据权利要求9所述的***,其特征在于,所述三维指控传感模组用于获取显示器件表面及前方指定空间内手指运动的三维信息。
11.根据权利要求9所述的***,其特征在于,所述三维指控IO处理模组用于从三维信息中识别出手指中心点的三维坐标值和运动轨迹信息。
12.根据权利要求9所述的***,其特征在于,所述三维指控显示模组用于将三维坐标值和运动轨迹通过显示模组进行显示。
13.根据权利要求9所述的***,其特征在于,所述三维指控主机模组用于依据三维坐标值和运动轨迹信息执行操作命令。
14.根据权利要求9所述的***,其特征在于,所述三维指控传感模组为安装在显示屏前的框架,框架内四周平行排布两排红外线发射管和红外线接收管,形成两层平行的横竖交叉的红外线矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100822355A CN103150020A (zh) | 2013-03-14 | 2013-03-14 | 一种三维指控操作方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100822355A CN103150020A (zh) | 2013-03-14 | 2013-03-14 | 一种三维指控操作方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103150020A true CN103150020A (zh) | 2013-06-12 |
Family
ID=48548146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013100822355A Pending CN103150020A (zh) | 2013-03-14 | 2013-03-14 | 一种三维指控操作方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103150020A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103823554A (zh) * | 2014-01-12 | 2014-05-28 | 青岛科技大学 | 一种数字化虚实交互***及方法 |
CN104159137A (zh) * | 2014-09-01 | 2014-11-19 | 深圳悠易阅科技有限公司 | 一种用于智能电视的触摸屏遥控器及其控制方法 |
CN104331154A (zh) * | 2014-08-21 | 2015-02-04 | 周谆 | 实现非接触式鼠标控制的人机交互方法和*** |
CN104360736A (zh) * | 2014-10-30 | 2015-02-18 | 广东美的制冷设备有限公司 | 基于手势的终端控制方法和*** |
CN104423578A (zh) * | 2013-08-25 | 2015-03-18 | 何安莉 | 交互式输入***和方法 |
CN105159539A (zh) * | 2015-09-10 | 2015-12-16 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
CN105373213A (zh) * | 2014-08-25 | 2016-03-02 | 乐视致新电子科技(天津)有限公司 | 一种人机交互中的操作识别方法及装置 |
CN105945945A (zh) * | 2016-05-20 | 2016-09-21 | 哈尔滨工业大学 | 基于人手运动功能分析的手指模块划分方法 |
CN106020712A (zh) * | 2016-07-29 | 2016-10-12 | 青岛海信移动通信技术股份有限公司 | 一种触控手势识别方法及装置 |
CN106774935A (zh) * | 2017-01-09 | 2017-05-31 | 京东方科技集团股份有限公司 | 一种显示设备 |
CN107407994A (zh) * | 2015-03-27 | 2017-11-28 | 精工爱普生株式会社 | 交互式投影仪以及交互式投影*** |
CN107844204A (zh) * | 2017-10-31 | 2018-03-27 | 宁波视睿迪光电有限公司 | 定位***及方法 |
CN107911686A (zh) * | 2017-12-29 | 2018-04-13 | 盎锐(上海)信息科技有限公司 | 控制方法以及摄像终端 |
US10203765B2 (en) | 2013-04-12 | 2019-02-12 | Usens, Inc. | Interactive input system and method |
CN110968195A (zh) * | 2019-11-29 | 2020-04-07 | 深圳朗特智能控制股份有限公司 | 一种光标控制方法、终端及存储介质 |
CN111625297A (zh) * | 2020-05-28 | 2020-09-04 | Oppo广东移动通信有限公司 | 一种应用程序的显示方法、终端和计算机可读存储介质 |
CN116860153A (zh) * | 2022-12-30 | 2023-10-10 | 北京津发科技股份有限公司 | 一种手指交互轨迹分析方法、***及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030132913A1 (en) * | 2002-01-11 | 2003-07-17 | Anton Issinski | Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras |
US20080062257A1 (en) * | 2006-09-07 | 2008-03-13 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
US7961173B2 (en) * | 2006-09-05 | 2011-06-14 | Navisense | Method and apparatus for touchless calibration |
-
2013
- 2013-03-14 CN CN2013100822355A patent/CN103150020A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030132913A1 (en) * | 2002-01-11 | 2003-07-17 | Anton Issinski | Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras |
US7961173B2 (en) * | 2006-09-05 | 2011-06-14 | Navisense | Method and apparatus for touchless calibration |
US20080062257A1 (en) * | 2006-09-07 | 2008-03-13 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10203765B2 (en) | 2013-04-12 | 2019-02-12 | Usens, Inc. | Interactive input system and method |
CN104423578A (zh) * | 2013-08-25 | 2015-03-18 | 何安莉 | 交互式输入***和方法 |
CN104423578B (zh) * | 2013-08-25 | 2019-08-06 | 杭州凌感科技有限公司 | 交互式输入***和方法 |
CN103823554A (zh) * | 2014-01-12 | 2014-05-28 | 青岛科技大学 | 一种数字化虚实交互***及方法 |
WO2016026365A1 (zh) * | 2014-08-20 | 2016-02-25 | 周谆 | 实现非接触式鼠标控制的人机交互方法和*** |
CN104331154A (zh) * | 2014-08-21 | 2015-02-04 | 周谆 | 实现非接触式鼠标控制的人机交互方法和*** |
CN104331154B (zh) * | 2014-08-21 | 2017-11-17 | 周谆 | 实现非接触式鼠标控制的人机交互方法和*** |
CN105373213A (zh) * | 2014-08-25 | 2016-03-02 | 乐视致新电子科技(天津)有限公司 | 一种人机交互中的操作识别方法及装置 |
CN104159137A (zh) * | 2014-09-01 | 2014-11-19 | 深圳悠易阅科技有限公司 | 一种用于智能电视的触摸屏遥控器及其控制方法 |
CN104360736A (zh) * | 2014-10-30 | 2015-02-18 | 广东美的制冷设备有限公司 | 基于手势的终端控制方法和*** |
CN104360736B (zh) * | 2014-10-30 | 2017-06-30 | 广东美的制冷设备有限公司 | 基于手势的终端控制方法和*** |
CN107407994A (zh) * | 2015-03-27 | 2017-11-28 | 精工爱普生株式会社 | 交互式投影仪以及交互式投影*** |
US10185433B2 (en) | 2015-09-10 | 2019-01-22 | Boe Technology Group Co., Ltd. | Method and apparatus for touch responding of wearable device as well as wearable device |
CN105159539A (zh) * | 2015-09-10 | 2015-12-16 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
CN105159539B (zh) * | 2015-09-10 | 2018-06-01 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
CN105945945A (zh) * | 2016-05-20 | 2016-09-21 | 哈尔滨工业大学 | 基于人手运动功能分析的手指模块划分方法 |
CN106020712B (zh) * | 2016-07-29 | 2020-03-27 | 青岛海信移动通信技术股份有限公司 | 一种触控手势识别方法及装置 |
CN106020712A (zh) * | 2016-07-29 | 2016-10-12 | 青岛海信移动通信技术股份有限公司 | 一种触控手势识别方法及装置 |
CN106774935A (zh) * | 2017-01-09 | 2017-05-31 | 京东方科技集团股份有限公司 | 一种显示设备 |
CN106774935B (zh) * | 2017-01-09 | 2020-03-31 | 京东方科技集团股份有限公司 | 一种显示设备 |
CN107844204A (zh) * | 2017-10-31 | 2018-03-27 | 宁波视睿迪光电有限公司 | 定位***及方法 |
CN107911686B (zh) * | 2017-12-29 | 2019-07-05 | 盎锐(上海)信息科技有限公司 | 控制方法以及摄像终端 |
CN107911686A (zh) * | 2017-12-29 | 2018-04-13 | 盎锐(上海)信息科技有限公司 | 控制方法以及摄像终端 |
CN110968195A (zh) * | 2019-11-29 | 2020-04-07 | 深圳朗特智能控制股份有限公司 | 一种光标控制方法、终端及存储介质 |
CN111625297A (zh) * | 2020-05-28 | 2020-09-04 | Oppo广东移动通信有限公司 | 一种应用程序的显示方法、终端和计算机可读存储介质 |
CN116860153A (zh) * | 2022-12-30 | 2023-10-10 | 北京津发科技股份有限公司 | 一种手指交互轨迹分析方法、***及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103150020A (zh) | 一种三维指控操作方法及*** | |
JP5237847B2 (ja) | ジェスチャ認識方法及びそれを組み込んだタッチシステム | |
CN103809733B (zh) | 人机交互***和方法 | |
CN103135883B (zh) | 控制窗口的方法及*** | |
CN101278251B (zh) | 交互式大规模触摸面*** | |
CN104808788B (zh) | 一种非接触式手势操控用户界面的方法 | |
US9619042B2 (en) | Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface | |
CN106030495A (zh) | 利用单个感测***的基于多模式姿势的交互***及方法 | |
CN103440033B (zh) | 一种基于徒手和单目摄像头实现人机交互的方法和装置 | |
CN101847057A (zh) | 一种触摸板获取输入信息的方法 | |
CN102880304A (zh) | 用于便携设备的字符输入方法及装置 | |
CN103686283A (zh) | 一种智能电视遥控器人机交互方法 | |
CN106468917B (zh) | 一种可触摸现场实时视频图像的远程呈现交互方法和*** | |
CN103995623B (zh) | 一种非接触式触屏控制装置 | |
US20210072818A1 (en) | Interaction method, device, system, electronic device and storage medium | |
CN101714044A (zh) | 一种基于摄像定位的触摸屏*** | |
CN106774938A (zh) | 基于体感设备的人机交互集成装置 | |
US20180260031A1 (en) | Method for controlling distribution of multiple sub-screens and device using the same | |
CN102033656B (zh) | 手势辨识方法以及使用该方法的互动*** | |
CN105138131B (zh) | 一种通用的手势命令发射和操作方法 | |
CN106383583A (zh) | 用于隔空人机交互的控制虚拟物体精确定位的方法与*** | |
CN105630134A (zh) | 识别操作事件的方法和装置 | |
CN105373329A (zh) | 显示器与展台的交互方法及*** | |
JP7351130B2 (ja) | 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ-カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム | |
CN107193384A (zh) | 基于Kinect彩色图像在鼠标和键盘模拟行为的切换方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130612 |