CN103019457A - 光学触控*** - Google Patents
光学触控*** Download PDFInfo
- Publication number
- CN103019457A CN103019457A CN2011102843357A CN201110284335A CN103019457A CN 103019457 A CN103019457 A CN 103019457A CN 2011102843357 A CN2011102843357 A CN 2011102843357A CN 201110284335 A CN201110284335 A CN 201110284335A CN 103019457 A CN103019457 A CN 103019457A
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- control system
- touch control
- optical touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种光学触控***,包含一影像感测器和一处理器。影像感测器侦测至少一目标。处理器耦接影像感测器。处理器分析影像感测器产生的一影像中由该至少一目标产生的像素丛集数量,并于像素丛集数量大于一预定像素丛集数量时,产生一手势信息。
Description
技术领域
本发明涉及一种光学触控***,且特别是涉及一种手势侦测方法及运用该手势侦测方法的光学触控***。
背景技术
在光学式触控***中,影像感测器获取目标的影像,触控***接着分析影像中目标影像的位置,然后根据目标影像的位置和光学式触控***的部分几何尺寸计算目标座标。
美国专利公告号第4,782,328号揭示一种光学式触控荧幕***,其包含两感测器和处理器,其中处理器耦接两感测器。两感测器用于获取在触控荧幕区域上的目标的影像。处理器通过分析两感测器所产生的影像,决定出分别连接目标与两感测器的感测线(sensing path)。处理器再根据感测路线计算出目标的位置座标。
美国专利第7689381B2号揭示一种光学式触控荧幕***,其包括一反射镜、一影像感测器与一处理器。反射镜设置在触控区域周边,反射镜用于产生目标的一镜像。影像感测器用于产生目标的影像与镜像的影像。处理器分析通过目标的影像的感测路线与通过镜像的影像的感测路线,以及根据所述多个感测路线计算出目标的座标。
多点触控技术可辨识出在触控表面上同时存在的两个或以上的目标,而多点感知(multipoint awareness)被运用在高阶的操作功能上,例如:双指缩放(pinch to zoom)或启动预定程序(activating predefined programs)。
现有支援多点触控的光学触控***在各预定时间点上计算出多目标的座标,然后输出不同时间点上多目标的座标于多点触控应用程序。在多点触控应用程序,会预先定义多点触控的手势(gestures),一般手势可定义为用于单指或多指卷页的拨动(pan)、画面旋转(rotation),以及两指缩放(zoom)。此外,单指触控手势大致包括常见触压、单击(flick)、选取及拖拉。另外,还有双指触击(double-tap)等可供特定软件客制化设定之用,例如游戏启动等。
多点触控应用程序的设计基本概念也采用事件驱动的处理模式。计算***捕捉到触控的事件后,会呼叫已经注册好的事件处理程序,产生对应该事件处理程序所设计出的的效果。
在进行多点触控操作时,现有支援多点触控的光学触控***必须在不同时间点上计算出多目标的座标,然后输出多目标的座标于多点触控应用程序。计算和输出多目标的座标需耗费大量时间与资源,也会造成光学触控***反应慢。
发明内容
为解决上述的问题,本发明提供了一种光学触控***。
本发明一实施例提供一种光学触控***,其包含一影像感测器和一处理器。影像感测器侦测至少一目标。处理器耦接影像感测器。处理器分析影像感测器产生的一影像中由该至少一目标产生的像素丛集数量,并于像素丛集数量大于一预定像素丛集数量时,产生一手势信息。
本发明另一实施例提供一种光学触控***,其包含一影像感测器和一处理器。影像感测器侦测至少一目标。处理器耦接影像感测器。处理器分析一影像中由至少一目标产生的像素丛集数量,和比较该像素丛集数量与一预定像素丛集数量,以决定输出一座标或一手势信息。
本发明另一实施例提供一种光学触控***,其包含一影像感测器和一处理器。影像感测器用于侦测至少一目标并产生多个影像。处理器接收所述多个影像、辨识各影像中多个像素丛集并根据所述多个影像中最远两像素丛集间距离变化产生一控制信息。
本发明另一实施例提供一种光学触控***,其包含一影像感测器和一处理器。影像感测器用于侦测至少一目标并产生多影像。处理器接收所述多个影像、辨识各影像中至少一像素丛集。处理器在所述多个影像的一者侦测到一第一像素丛集且该第一像素丛集保持在一预定范围情形下,侦测到一第二像素丛集时,则产生一控制信息。
本发明另一实施例提供一种光学触控***,其包含一影像感测器及一处理器。影像感测器用于侦测至少一目标。处理器辨识该影像感测器依序产生的一第一影像中的多个像素丛集与一第二影像中的多个像素丛集,该第二影像的像素丛集至少部分对应该第一影像的像素丛集,其中当该第二影像中的像素丛集的数量大于或等于该第一影像中的像素丛集的数量,且该第一影像中的各像素丛集和该第二影像中的相应的像素丛集的大小差异及/或位置差异小于一门限值时,则产生一手势信息。
上文已经概略地叙述本发明的技术特征及优点,以使下文的本发明详细描述得以获得较佳了解。构成本发明的申请专利范围标的的其它技术特征及优点将描述于下文。本发明所属技术领域中具有通常知识者应可了解,下文揭示的概念与特定实施例可作为基础而相当轻易地予以修改或设计其它结构或工艺而实现与本发明相同的目的。本发明所属技术领域中具有通常知识者也应可了解,这类等效的建构并无法脱离后附的申请专利范围所提出的本发明的精神和范围。
附图说明
图1显示本发明一实施例的一光学触控***的示意图;
图2A显示本发明一实施例的影像感测器产生的一影像的示意图;
图2B显示本发明一实施例的亮度波形图;
图2C显示本发明一实施例的一影像中被选择的一列像素的示意图;
图2D显示本发明一实施例的一影像中被选择的像素分布示意图;
图3系根据本发明一实施例显示两目标在光学触控***上的示意图;
图4显示图3的两目标在一影像中产生的像素丛集的示意图;
图5为根据本发明一实施例显示一目标在光学触控***上的示意图;
图6为根据本发明一实施例显示两目标在光学触控***上移动的示意图;
图7为图6的两目标在一影像中产生的像素丛集的示意图;
图8为根据本发明一实施例显示两目标在光学触控***上移动的示意图;
图9为图8的两目标在一影像中产生的像素丛集的示意图;
图10为根据本发明一实施例显示两目标在光学触控***上做出旋转手势的示意图;
图11至图13为图10的做出旋转手势的两目标在影像中产生的像素丛集的位置变化示意图;
图14为本发明另一实施例的光学触控***的示意图;
图15为图14的两目标在一影像中产生的像素丛集的示意图;
图16为在图14的光学触控***上的两目标做放大手势后的像素丛集的示意图;
图17为在图14的光学触控***上的两目标做旋转手势后的像素丛集的示意图;
图18为本发明再一实施例的光学触控***的示意图;
图19为本发明一实施例的手势侦测方法的流程图;
图20和图21分别图示一影像,其中两影像是依序获取且包含多个像素丛集。
其中,附图标记说明如下:
1:光学触控***
2:触控区域
3、4:目标
3′、4′:镜像
5、6:光学触控***
11:影像感测器
12:处理器
13:镜元件
14:影像
15、16:投光元件
17、18、19、20a、20b:影像
51、52:影像感测器
53:处理器
54、55、56:影像
141、142、171、172、173、174:像素丛集
141′、142′:亮度较低的部分
143:像素
181、182:镜元件
220:第一影像
230:第二影像
221、222、221′、222′、223、541、542:像素丛集
1711、1741:外侧边缘
1712、1742:内侧边缘
d1、d2:位置差异
L1、L2、L3、L4、L5、L6、L7、L8:距离
W1、W2、W1′、W2′:尺寸
S201~S212:流程步骤
具体实施方式
本发明的一实施例的光学触控***通过比较影像中目标产生的像素丛集数量与一预定像素丛集数量,以判断是否在进行多触控操作(multi touchoperation)。若是单一目标进行操作时,像素丛集数量会与预定像素丛集数量相同,此时光学触控***根据获取影像计算目标座标;若是多目标进行操作时,像素丛集数量将会大于预定像素丛集数量,此时光学触控***会根据所获取的多个影像所产生像素丛集的位置变化或数目变化,相对应地输出手势信息。
光学触控***可包含至少一影像感测器,影像感测器用于侦测至少一目标。光学触控***还可包含一处理器,处理器可耦接影像感测器,处理器用于分析影像感测器产生的影像,计算影像中像素丛集数量,比较像素丛集数量与预定像素丛集数量,且当像素丛集数量大于预定像素丛集数量时,则输出手势信息。
预定像素丛集数量随着光学触控***设计不同而不同。在一实施例中,预定像素丛集数量可为单一目标在各影像感测器所获取的一影像上产生的像素丛集数量。
以下例示本发明的概念运用在不同的光学触控***。
图1显示本发明一实施例的一光学触控***1的示意图。图2显示本发明一实施例的影像感测器产生的一影像14的示意图。参照图1和图2A所示,光学触控***1可包含一影像感测器11、一处理器12和一镜元件13。镜元件13设置于触控区域2旁,以产生目标3的镜像3′。影像感测器11可设置于一触控区域2旁,其入光面面向触控区域2,拍摄在触控区域2上的目标3和镜元件13所产生的镜像3′,产生一影像14,其中影像14上包含目标3和镜像3′所产生的像素丛集(pixel cluster)141和142。处理器12耦接影像感测器11。处理器12可分析影像14中由目标3和镜像3′所产生的像素丛集141和142的数量,以及比较像素丛集141或142的数量与一预定像素丛集数量,以此决定计算目标3的座标或输出一手势信息(gesture information)。
在本实施例中,光学触控***1的预定像素丛集数量为2,因此光学触控***1获得的影像中,其像素丛集为2时,光学触控***1可根据获得的影像14计算目标的座标。关于目标的座标的计算方法可参考美国专利第7689381B2号,但本发明不以美国专利第7689381B2号的方法为限。在一实施例中,单一目标3在影像14中产生的像素丛集数量为2,因此预定像素丛集数量设定为2。
像素丛集141或142在亮度上彼此相近,但不同于背景亮度的多个像素集合。像素丛集141或142可为任意形状,不受限于图2A所示。
参照图2A至图2D所示,处理器12可利用影像14中至少部分像素的亮度信息,产生一亮度波形图(图2B),接着再从该亮度波形图中辨识出像素丛集141或142。
若影像14中的像素丛集141或142为目标3遮蔽光所产生,则亮度波形图上会产生对应的亮度较低的部分141′或142′。相反地,若影像14中的像素丛集141或142为目标3反光而产生,则亮度波形图上会产生对应的亮度较高的部分。
在一实施例中,处理器12可以一预设门限值或亮度变化门限值比较亮度波形图,由此比较出亮度较低或较高的部分。如此,像素丛集141或142可容易地被辨识出。
产生亮度波形图的方法很多,以下仅列出几种常见方法,但本发明不以这些方法为限。
在一实施例中,计算影像14中每一行的像素亮度值的总和或平均,以获得一亮度波形图。
在一实施例中,如图2C所示,亮度波形图可为选择的至少一列的像素的亮度值所构成,或者多列的像素的平均亮度值或总和亮度值所构成。
在一实施例中,亮度波形图可为不同列的像素143的亮度值所构成,如图2D所示。
在一实施例中,亮度波形图可为在影像14中获取部分列的像素(例如:最暗的N列或最亮的N列)或者在每一行获取最暗N个或最亮N个像素的亮度值。
在一实施例中,目标3包含手指。
再参图1所示,在一实施例中,光学触控***1还可包含两投光元件(lightprojecting members)15和16,投光元件15和16向触控区域2投光,以利目标3的侦测。投光元件15和16可设置于触控区域2旁。
参照图3和图4所示,当两目标(3和4)碰触触控区域2时,镜元件13会产生两镜像(3′和4′),影像感测器11所获取的影像17会包含目标(3和4)与镜像(3′和4′)所产生的像素丛集(171、172、173和174)。处理器12分析影像17,可计算出影像17中包含4个像素丛集(171、172、173和174),而在比较像素丛集(171、172、173和174)的数量与预定像素丛集数量(在本实施例中为2)后,处理器12会分析影像17与下一张影像间的差异,对应输出一手势信息。
在一实施例中,下一张影像是在取得影像17后,一预定的取样时间上取得。
参照图3至图5所示,在两目标(3和4)碰触触控区域2后,接着目标4移离开触控区域2。在目标4移离开触控区域2后,影像感测器11可获取出的包含2个像素丛集的影像,如图2A所示。在比较图4的影像17和下一张包含2个像素丛集的影像后,处理器12分析出两影像的像素丛集数量减少,而会输出按与点击(press and tap)信息。在一实施例中,按与点击(press and tap)信息对应滑鼠右键所对应的指令。
在一实施例中,处理器12接收多个影像,辨识各影像中至少一像素丛集。在一影像中侦测到一第一像素丛且第一像素丛集保持在一预定范围情形下,处理器12侦测到一第二像素丛集时,则产生一控制信息。在一实施例中,当该第二像素丛集保持在一预定范围后消失,则输出按与点击信息。
参照图3、图4、图6和图7所示,在获得影像17的后,处理器12可获得下一张影像18(图7)。在触控区域2上的两目标(3和4)可彼此相互远离移动,如图6所示;而影像18可在两目标(3和4)分开时,由影像感测器11所获取而得。处理器12在获取影像18后,比较影像18的像素丛集(171、172、173和174)的数量与预定像素丛集数量(在本实施例中为2)。由于影像18的像素丛集(171、172、173和174)的数量大于预定像素丛集数量,处理器12会计算在影像17和影像18内像素丛集(171、172、173和174)中相距最远的两像素丛集(171和174)间的距离L1和L2,比较两距离L1和L2间的变化。在本实施例中,由于两目标(3和4)是分开,因此两距离L1和L2间的变化是增加,即距离L2大于距离L1。处理器12会根据距离L1和L2增加的分析结果,输出放大信息(zoom-in information)。在一实施例中,放大信息可对应键盘控制键(Ctrl)与滑鼠滚轮向上等组合所对应的指令。
距离L1或L2可为相距最远的两像素丛集(171和174)的代表点或边缘间的距离。在一实施例中,距离L1或L2可为相距最远的两像素丛集(171和174)的外侧边缘(1711和1741)间的距离。在一实施例中,距离L1或L2可为相距最远的两像素丛集(171和174)的内侧边缘(1712和1742)间的距离。在一实施例中,距离L1或L2可为相距最远的两像素丛集(171和174)的外侧边缘(1711和1741)上一预定点的距离,其中预定点包含外侧边缘(1711和1741)的边缘点或中点。在一实施例中,距离L1或L2可为相距最远的两像素丛集(171和174)的内侧边缘(1712和1742)上一预定点的距离,其中预定点包含内侧边缘(1712和1742)的边缘点或中点。在一实施例中,距离L1或L2可为相距最远的两像素丛集(171和174)的中心点的距离。在一实施例中,距离L1或L2可为相距最远的两像素丛集(171和174)的重心点的距离。
参照图3、图4、图8和图9所示,在获得影像17之后,处理器12可获得下一张影像19(图9)。在触控区域2上的两目标(3和4)可彼此靠近移动,如图8所示;而影像19可在两目标(3和4)相靠近时,由影像感测器11所获取而得。处理器12在获取影像19后,比较影像19的像素丛集(171、172、173和174)的数量与预定像素丛集数量(在本实施例中为2)。由于影像19的像素丛集(171、172、173和174)的数量大于预定像素丛集数量,处理器12会计算在影像17和影像19内像素丛集(171、172、173和174)中相距最远的两像素丛集(171和174)间的距离L1和L3,比较两距离L1和L3间的变化。在本实施例中,由于两目标(3和4)是相靠近,因此两距离L1和L3间的变化是减少,即距离L3小于距离L1。处理器12会根据距离L1和L3减少的分析结果,输出缩小信息(zoom-out information)。在一实施例中,缩小信息可对应键盘控制键(Ctrl)与滑鼠滚轮向下等组合所对应的指令。
参照图10至图13所示,在触控区域2上的两目标(3和4)可能做出旋转手势(rotation gesture)。例如,目标4以目标3为中心作顺时钟或逆时钟旋转,如图10所示。在本实施例中,两目标(3和4)在图10的位置上分别在影像17上产生对应的像素丛集173和174;镜像(3′和4′)分别在影像17上产生对应的像素丛集171和172。由于目标4的位置不断变化及目标3的位置不变,因此在连续的影像中,像素丛集171和173的位置不会产生变化,而像素丛集172和174则会不断改变。
在目标3绕着目标4旋转时,影像感测器11可依序获取出影像17和20a。由于影像17和20a的像素丛集(171、172、173和174)的数量大于预定像素丛集数量(在本实施例中为2)后,处理器12会计算影像17和20a内像素丛集(171、172、173和174)中相距最远的两像素丛集(171和174)间的距离L1和L4。当距离L1和距离L4不同且像素丛集(171、172、173和174)中至少一像素丛集171或173的位置不变或保持在一预定范围内时,处理器12会输出旋转信息。
在另一实施例中,影像17、20a和20b依序产生,各影像17、20a或20b中相距最远的两像素丛集(171和174)间的距离L1、L4和L5被分别计算。处理器12比较距离L1和距离L4可分析出两像素丛集(171和174)间的距离增加;而比较距离L4和距离L5可分析出两像素丛集(171和174)间的距离又减少。当处理器12分析出两像素丛集(171和174)间的距离先是增加、后是减少,或者先是减少、后是增加,则输出旋转信息。
在又一实施例中,多个影像依序产生,各影像中相距最远的两像素丛集间的距离分别被计算。当处理器12分析出两像素丛集间的距离是呈现周期性增减时,则输出旋转信息。
图14显示本发明另一实施例的光学触控***5的示意图。参照图14所示,光学触控***5包含两影像感测器51和52及一处理器53,其中两影像感测器51和52耦接处理器53。两影像感测器51和52位于触控区域2分开设置,较佳地分别设置于触控区域2的两角落上。两影像感测器51和52拍摄在触控区域2上的至少一目标3或4。处理器53根据两影像感测器51和52所产生的影像计算目标3或4的座标,或者当分析出影像中像素丛集数量将会大于预定像素丛集数量时,输出手势信息。
在一实施例中,光学触控***5的预定像素丛集数量可预设为1。
在一实施例中,在光学触控***5中,一目标3或4的座标是根据影像感测器51产生的一影像中的一像素丛集和影像感测器52产生的另一影像中的一像素丛集计算而得,因此为计算一目标3或4的座标,各影像感测器51或52产生的影像中所需最少的像素丛集数量为1。因此,预定像素丛集数量可为1。
参照图14至图16所示,当两目标3和4在触控区域2上时,各影像感测器51或52所获取出的影像54可包含两像素丛集541和542。由于影像54中像素丛集的数量大于预定像素丛集数量,处理器53会比较影像54与下一张获得的影像间的变化,对应产生手势信息。在一实施例中,若下一张影像仅出现一像素丛集,处理器53比较影像54与下一张影像,可分析出两目标3和4中一者已离开触控区域2,因而输出按与点击(press and tap)信息。
参照图15与图16所示,当下一张影像55中像素丛集的数量大于预定像素丛集数量时,处理器53可计算影像54和55中两像素丛集(541和542)间的距离L6和L7,比较两距离L6和L7间的变化。当距离L6小于距离L7时,处理器53输出放大信息(zoom-in information);而当距离L6大于距离L7时,处理器53输出放大信息(zoom-out information)。
参照图15与图17所示,当下张影像55中像素丛集的数量大于预定像素丛集数量时,处理器53可计算影像54和55中两像素丛集(541和542)间的距离L6和L8,比较两距离L6和L8间的变化。处理器53另可比较影像中54和55中对应像素丛集(541和542)的位置变化,当距离L6和距离L8不同时且一像素丛集(541或542)在影像中54和55的位置不变时,处理器53输出一旋转信息。
类似地,当处理器53分析多影像中像素丛集间的距离呈现变大后变小或变小后变大,则输出一旋转信息。
像素丛集间的距离可如前述为像素丛集上代表点或边缘间的距离。
图18显示本发明又一实施例的光学触控***6的示意图。参照图18所示,光学触控***6包含一影像感测器11、一处理器12和两镜元件181和182。两镜元件181和182设置于触控区域2旁,可分别设置于触控区域2相邻两边。当目标3在触控区域2上时,两镜元件181和182可产生3个目标3的镜像3′,因此影像感测器11所获取出的影像中,可包含4像素丛集。在光学触控***6中,预定像素丛集数量可预设为4。
类似地,当处理器12比较出一影像上的像素丛集数量大于一预定像素丛集数量时,会根据下一张影像输出对应的手势信息。在一实施例中,当下一张影像的像素丛集数量变少,则输出按与点击(press and tap)信息;当两影像中的相距最远的两像素丛集的距离增加时,则输出放大信息(zoom-ininformation);当两影像中的相距最远的两像素丛集的距离减少时,处理器53输出放大信息(zoom-in information);当两影像中的相距最远的两像素丛集的距离不同且两影像中至少一像素丛集的位置不变时,则输出一旋转信息。类似地,当处理器12分析多影像中像素丛集间的距离呈现变大后变小或变小后变大,则输出一旋转信息。
图19显示本发明一实施例的手势侦测方法的流程图。参照图19所示,在步骤S201中,一感测器获取第一影像。在步骤S202中,计算第一影像中像素丛集数量及确定像素丛集的边界位置。在S203中,判断第一影像中像素丛集数量是否大于一预定像素丛集数量。在步骤S204中,当像素丛集数量大于预定像素丛集数量时,计算目标座标。在步骤S205中,计算第一影像中相距最远的两像素丛集间的一第一距离。在步骤S206中,获取一第二影像并计算第二影像中相距最远的两像素丛集间的一第二距离。在步骤S207中,判断第一距离和第二距离是否有变化。在步骤S208中,判断第二影像中像素丛集数量是否等于预定像素丛集数量。在步骤S209中,当第二影像中像素丛集数量等于预定像素丛集数量时,输出按与点击(press and tap)信息。在步骤S210中,判断第二距离是否大于第一距离。在步骤S211中,当第二距离大于第一距离时,输出放大信息(zoom-in information)。在步骤S212中,当第二距离小于第一距离时,输出缩小信息(zoom-out information)。
本发明一实施例另揭示以依序获取影像内的像素丛集的特征,判断是否输出手势信息。参照图20与图21所示,一实施例中,光学触控***的影像感测器可依序产生一第一影像220(图20)和一第二影像230(图21)。第一影像220可包含多个像素丛集221和222。第二影像230可包含多个像素丛集221′、222′和223。像素丛集221具有一代表尺寸或大小W1。像素丛集222具有一代表尺寸或大小W2。像素丛集221′具有一代表尺寸或大小W1′。像素丛集222′具有一代表尺寸或大小W2′。光学触控***的处理器可辨识第一影像220的多个像素丛集221和222和第二影像230的多个像素丛集221′、222′和223。第一影像220的像素丛集221可对应第二影像230的像素丛集221′。第一影像220的像素丛集222可对应第二影像230的像素丛集222′。换言之,第影像220的像素丛集221和第二影像230的像素丛集221′可由同一目标产生。第一影像220的像素丛集222和第二影像230的像素丛集222′可由同一目标产生。当处理器分析出第二影像230的像素丛集数量大于或等于第一影像220的像素丛集数量(或第二影像230有像素丛集223在第一影像220找不到),且第一影像220的各像素丛集221或222和第二影像230的相应像素丛集221′或222′的大小(W1或W2和W1′或W2′)的差异及/或位置差异(d1和d2)小于一门限值时,则产生一手势信息。特别地,位置差异可为对应的像素丛集(221和221′或222和222′)间的边缘位置、重心位置、中心位置或其他可代表像素丛集的点位置的差异。
本发明揭示一种手势侦测方法与运用该手势侦测方法的光学触控***。本发明揭示的手势侦测方法可直接根据影像中像素丛集的数目与位置变化,输出手势信息,无需先计算目标座标,然后再根据座标变化进行手势分析,故可大幅降低计算时间与资源,加快***反应速度。
本发明的技术内容及技术特点已揭示如上,然而熟悉本项技术的人士仍可能基于本发明的教示及揭示而作种种不背离本发明精神的替换及修饰。因此,本发明的保护范围应不限于实施例所揭示者,而应包括各种不背离本发明的替换及修饰,并为以下的申请专利范围所涵盖。
Claims (34)
1.一种光学触控***,其特征在于,包含:
一影像感测器,用于侦测至少一目标;以及
一处理器,耦接该影像感测器,该处理器分析该影像感测器产生的一影像中由该至少一目标产生的像素丛集数量,并于该像素丛集数量大于一预定像素丛集数量时,产生一手势信息。
2.根据权利要求1所述的光学触控***,其包含两影像感测器,且该预定像素丛集数量为1。
3.根据权利要求1所述的光学触控***,其特征在于,还包含一镜元件,其中该镜元件产生该至少一目标的一镜像,且该预定像素丛集数量为2。
4.根据权利要求1所述的光学触控***,其特征在于,还包含两镜元件,该两镜元件分别产生该至少一目标的一镜像,且该预定像素丛集数量为4。
5.根据权利要求1所述的光学触控***,其特征在于,该预定像素丛集数量为单一目标在该影像感测器所获取的一影像上产生的像素丛集数量。
6.根据权利要求1所述的光学触控***,其特征在于,该影像包含多个像素丛集,该处理器计算所述多个像素丛集中相距最远的两像素丛集间的一距离。
7.根据权利要求6所述的光学触控***,其特征在于,该影像感测器分别取得两影像,该处理器分别计算该两影像中像素丛集中相距最远的两像素丛集间的两距离和比较该两距离间的变化。
8.根据权利要求7所述的光学触控***,其特征在于,当该两距离间的变化是增加时,该处理器输出放大信息。
9.根据权利要求7所述的光学触控***,其特征在于,当该两距离间的变化是减少时,该处理器输出缩小信息。
10.根据权利要求7所述的光学触控***,其特征在于,当该处理器分析出该两距离不同,且在该两影像的所述多个像素丛集之间至少一该像素丛集的位置相同时,则输出旋转信息。
11.根据权利要求1所述的光学触控***,其特征在于,该影像感测器取得两影像,而该处理器分析该两影像的像素丛集数量的变化是减少时,该处理器输出按与点击信息。
12.根据权利要求1所述的光学触控***,其特征在于,该处理器利用该影像中至少部分像素的亮度信息,产生一亮度波形图,再由该亮度波形图辨识由该至少一目标产生的像素丛集。
13.一种光学触控***,其特征在于,包含:
一影像感测器,用于侦测至少一目标;以及
一处理器,耦接该影像感测器,该处理器分析一影像中由该至少一目标产生的像素丛集数量和比较该像素丛集数量与一预定像素丛集数量,以决定输出一座标或一手势信息。
14.根据权利要求13所述的光学触控***,其特征在于,包含两影像感测器,且该预定像素丛集数量为1。
15.根据权利要求13所述的光学触控***,其特征在于,还包含一镜元件,该镜元件产生该至少一目标的一镜像,且该预定像素丛集数量为2。
16.根据权利要求13所述的光学触控***,其特征在于,还包含两镜元件,该两镜元件分别产生该至少一目标的一镜像,且该预定像素丛集数量为4。
17.根据权利要求13所述的光学触控***,其特征在于,该预定像素丛集数量为单一目标在该影像感测器所获取的一影像上产生的像素丛集数量。
18.根据权利要求13所述的光学触控***,其特征在于,该影像包含多个像素丛集,且该处理器计算所述多个像素丛集中相距最远的两像素丛集间的一距离。
19.根据权利要求18所述的光学触控***,其特征在于,该影像感测器分别取得两影像,且该处理器分别计算该两影像中像素丛集中相距最远的两像素丛集间的两距离和比较该两距离间的变化。
20.根据权利要求19所述的光学触控***,其特征在于,当该两距离间的变化是增加时,该处理器输出放大信息。
21.根据权利要求19所述的光学触控***,其特征在于,当该两距离间的变化是减少时,该处理器输出缩小信息。
22.根据权利要求19所述的光学触控***,其特征在于,当该处理器分析出该两距离不同,且在该两影像的所述多个像素丛集的间至少一该像素丛集的位置相同时,则输出旋转信息。
23.根据权利要求13所述的光学触控***,其特征在于,该影像感测器取得两影像,该处理器分析该两影像的像素丛集数量的变化是减少时,该处理器输出按与点击信息。
24.根据请求项13所述的光学触控***,其特征在于,该处理器利用该影像中至少部分像素的亮度信息,产生一亮度波形图,再由该亮度波形图辨识由该至少一目标产生的像素丛集。
25.一种光学触控***,其特征在于,包含:
一影像感测器,用于侦测至少一目标并产生多影像;以及
一处理器,接收所述多个影像、辨识各影像中多个像素丛集并根据所述多个影像中最远两像素丛集间距离变化产生一控制信息。
26.根据权利要求25所述的光学触控***,其特征在于,各影像为一二维影像,而该处理器计算各影像中至少一列像素的一亮度波形图并根据该亮度波形图辨识该多个像素丛集。
27.根据权利要求25所述的光学触控***,其特征在于,各影像为一二维影像,而该处理器计算各影像中由部分像素所构成的一亮度波形图并根据该亮度波形图辨识该多个像素丛集。
28.根据权利要求25所述的光学触控***,其特征在于,当该距离拉近时,该控制信息为放大信息;当该距离拉远时,该控制信息为缩小信息。
29.一种光学触控***,其特征在于,包含:
一影像感测器,用于侦测至少一目标并产生多影像;以及
一处理器,接收所述多个影像、辨识各影像中至少一像素丛集;
该处理器在所述多个影像的一者侦测到一第一像素丛集且该第一像素丛集保持在一预定范围情形下,侦测到一第二像素丛集时,则产生一控制信息。
30.根据权利要求29所述的光学触控***,其特征在于,当该第二像素丛集保持在一预定范围后消失,则输出按与点击信息。
31.根据权利要求29所述的光学触控***,其特征在于,当该第二像素丛集逐渐靠近该第一像素丛集,则产生放大信息;当该第二像素丛集逐渐靠近该第一像素丛集,则产生缩小信息。
32.根据权利要求29所述的光学触控***,其特征在于,各影像为一二维影像,而该处理器计算各影像中至少一列像素的一亮度波形图并根据该亮度波形图辨识该多个像素丛集。
33.根据权利要求29所述的光学触控***,其特征在于,各影像为一二维影像,而该处理器计算各影像中由部分像素所构成的一亮度波形图并根据该亮度波形图辨识该多个像素丛集。
34.一种光学触控***,其特征在于,包含:
一影像感测器,用于侦测至少一目标;以及
一处理器,辨识该影像感测器依序产生的一第一影像中的多个像素丛集与一第二影像中的多个像素丛集,该第二影像的像素丛集至少部分对应该第一影像的像素丛集,其中当该第二影像中的像素丛集的数量大于或等于该第一影像中的像素丛集的数量,且该第一影像中的各像素丛集和该第二影像中的相应的像素丛集的大小差异及/或位置差异小于一门限值时,则产生一手势信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011102843357A CN103019457A (zh) | 2011-09-23 | 2011-09-23 | 光学触控*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011102843357A CN103019457A (zh) | 2011-09-23 | 2011-09-23 | 光学触控*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103019457A true CN103019457A (zh) | 2013-04-03 |
Family
ID=47968125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011102843357A Pending CN103019457A (zh) | 2011-09-23 | 2011-09-23 | 光学触控*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103019457A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095133A (zh) * | 2016-05-31 | 2016-11-09 | 广景视睿科技(深圳)有限公司 | 一种交互投影的方法及*** |
CN106990874A (zh) * | 2016-01-21 | 2017-07-28 | 纬创资通股份有限公司 | 光学触控装置、触控指地点位置决定方法及光学触控*** |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4782328A (en) * | 1986-10-02 | 1988-11-01 | Product Development Services, Incorporated | Ambient-light-responsive touch screen data input method and system |
CN1666248A (zh) * | 2002-06-26 | 2005-09-07 | Vkb有限公司 | 多功能集成图像传感器以及在虚拟接口技术上的应用 |
US20080309632A1 (en) * | 2007-06-13 | 2008-12-18 | Apple Inc. | Pinch-throw and translation gestures |
US20090044988A1 (en) * | 2007-08-17 | 2009-02-19 | Egalax_Empia Technology Inc. | Device and method for determining function represented by continuous relative motion between/among multitouch inputs on signal shielding-based position acquisition type touch panel |
US20090090569A1 (en) * | 2005-10-13 | 2009-04-09 | Cho-Yi Lin | Sensing System |
US20090273571A1 (en) * | 2008-05-01 | 2009-11-05 | Alan Bowens | Gesture Recognition |
TW201030579A (en) * | 2009-02-10 | 2010-08-16 | Quanta Comp Inc | Optical touch displaying device and operating method thereof |
CN102033660A (zh) * | 2009-10-06 | 2011-04-27 | 原相科技股份有限公司 | 触控***及其触碰检测方法 |
CN102033656A (zh) * | 2009-09-28 | 2011-04-27 | 原相科技股份有限公司 | 手势辨识方法以及使用该方法的互动*** |
US20110122099A1 (en) * | 2011-02-03 | 2011-05-26 | Hong Kong Applied Science and Technology Research Institute Company Limited | Multiple-input touch panel and method for gesture recognition |
CN102122350A (zh) * | 2011-02-24 | 2011-07-13 | 浙江工业大学 | 基于骨架化和模板匹配的交警手势识别方法 |
-
2011
- 2011-09-23 CN CN2011102843357A patent/CN103019457A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4782328A (en) * | 1986-10-02 | 1988-11-01 | Product Development Services, Incorporated | Ambient-light-responsive touch screen data input method and system |
CN1666248A (zh) * | 2002-06-26 | 2005-09-07 | Vkb有限公司 | 多功能集成图像传感器以及在虚拟接口技术上的应用 |
US20090090569A1 (en) * | 2005-10-13 | 2009-04-09 | Cho-Yi Lin | Sensing System |
US20080309632A1 (en) * | 2007-06-13 | 2008-12-18 | Apple Inc. | Pinch-throw and translation gestures |
US20090044988A1 (en) * | 2007-08-17 | 2009-02-19 | Egalax_Empia Technology Inc. | Device and method for determining function represented by continuous relative motion between/among multitouch inputs on signal shielding-based position acquisition type touch panel |
US20090273571A1 (en) * | 2008-05-01 | 2009-11-05 | Alan Bowens | Gesture Recognition |
TW201030579A (en) * | 2009-02-10 | 2010-08-16 | Quanta Comp Inc | Optical touch displaying device and operating method thereof |
CN102033656A (zh) * | 2009-09-28 | 2011-04-27 | 原相科技股份有限公司 | 手势辨识方法以及使用该方法的互动*** |
CN102033660A (zh) * | 2009-10-06 | 2011-04-27 | 原相科技股份有限公司 | 触控***及其触碰检测方法 |
US20110122099A1 (en) * | 2011-02-03 | 2011-05-26 | Hong Kong Applied Science and Technology Research Institute Company Limited | Multiple-input touch panel and method for gesture recognition |
CN102122350A (zh) * | 2011-02-24 | 2011-07-13 | 浙江工业大学 | 基于骨架化和模板匹配的交警手势识别方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106990874A (zh) * | 2016-01-21 | 2017-07-28 | 纬创资通股份有限公司 | 光学触控装置、触控指地点位置决定方法及光学触控*** |
CN106990874B (zh) * | 2016-01-21 | 2019-11-22 | 纬创资通股份有限公司 | 光学触控装置、触控指地点位置决定方法及光学触控*** |
CN106095133A (zh) * | 2016-05-31 | 2016-11-09 | 广景视睿科技(深圳)有限公司 | 一种交互投影的方法及*** |
CN106095133B (zh) * | 2016-05-31 | 2019-11-12 | 广景视睿科技(深圳)有限公司 | 一种交互投影的方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9195345B2 (en) | Position aware gestures with visual feedback as input method | |
EP2364013B1 (en) | Information processing apparatus, method and program for imaging device | |
US20130307775A1 (en) | Gesture recognition | |
CN101727245A (zh) | 多点触摸定位方法及多点触摸屏 | |
US20140333585A1 (en) | Electronic apparatus, information processing method, and storage medium | |
AU2012209611A1 (en) | Terminal having touch screen and method for identifying touch event therein | |
US20210247848A1 (en) | Method for outputting command by detecting object movement and system thereof | |
US20160072984A1 (en) | Gesture recognition apparatus and complex optical apparatus | |
WO2019024644A1 (zh) | 接近检测方法、装置、存储介质及电子设备 | |
TW201112092A (en) | Optical touch system and method thereof | |
US20120007826A1 (en) | Touch-controlled electric apparatus and control method thereof | |
EP2960763A1 (en) | Computerized systems and methods for cascading user interface element animations | |
US10656746B2 (en) | Information processing device, information processing method, and program | |
CN103472957B (zh) | 双模输入装置 | |
CN101833401A (zh) | 光学触控显示装置及其操作方法 | |
TW201331796A (zh) | 能根據環境光線變化來最佳化觸控亮點之多點觸控系統及其方法 | |
CN103019457A (zh) | 光学触控*** | |
US9489077B2 (en) | Optical touch panel system, optical sensing module, and operation method thereof | |
CN104914985A (zh) | 手势控制方法及***与视频流处理装置 | |
TWI448918B (zh) | 光學觸控系統 | |
CN103076925B (zh) | 光学触控***、光学感测模块及其运作方法 | |
US9189075B2 (en) | Portable computer having pointing functions and pointing system | |
CN111198644A (zh) | 智能终端的屏幕操作的识别方法及*** | |
US8723819B2 (en) | Method for analyzing two-dimensional track to generate at least one non-linear index and touch control module using the same | |
CN102043543B (zh) | 光学式触控***及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130403 |