CN102792249A - 使用光学部件在图像传感器上成像多个视场的触摸*** - Google Patents

使用光学部件在图像传感器上成像多个视场的触摸*** Download PDF

Info

Publication number
CN102792249A
CN102792249A CN201180011765XA CN201180011765A CN102792249A CN 102792249 A CN102792249 A CN 102792249A CN 201180011765X A CN201180011765X A CN 201180011765XA CN 201180011765 A CN201180011765 A CN 201180011765A CN 102792249 A CN102792249 A CN 102792249A
Authority
CN
China
Prior art keywords
touch
sensing plane
light
optics
camera assembly
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201180011765XA
Other languages
English (en)
Inventor
里卡多·R·沙拉沃瑞
雷蒙德·T·赫伯特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elo Touch Solutions Inc
Original Assignee
Elo Touch Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elo Touch Solutions Inc filed Critical Elo Touch Solutions Inc
Publication of CN102792249A publication Critical patent/CN102792249A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种触摸***,包括触摸感测平面和置于触摸感测平面附近的摄像机组件。摄像机组件包括图像传感器和具有与触摸感测平面相关联的至少两个视场的至少一个虚拟摄像机。至少一个虚拟摄像机包括光学部件,其沿着至少一条光路导引触摸感测平面附近的光。光学部件将光导引和聚焦到图像传感器的不同区域上。

Description

使用光学部件在图像传感器上成像多个视场的触摸***
背景技术
使用两个或多个摄像机组件的触摸屏***是可用的,两个或多个摄像机组件位于触摸屏不同角处。每个摄像机组件包括一个线性光传感器和检测单视场内的光的简单光学器件(例如,透镜)。可以在透镜的附近或者触摸屏的其它区域的附近安装一个或多个红外光源。
使用在触摸屏的一个角安装的一个这种摄像机组件和在触摸屏的相邻角安装的第二个这种摄像机组件的触摸屏***使用三角测量来提供触摸屏上单触摸的可靠检测。通过检测触控笔或手指所反射的红外光,或者通过检测由于相对缺少从触摸屏的玻璃框(bezel)反射的光而引起的触控笔或手指的阴影,来进行触摸屏上对手指或触控笔的检测。然而,在不可以确定触摸位置的每个摄像机组件附近会出现一些盲点。
期望能够检测两个或多个同时触摸的触摸屏***期增加针对用户的功能。需要具有位于触摸屏其它角的线性图像传感器的附加摄像机组件来消除前述盲点,并且检测两个或多个同时触摸。需要多个分离摄像机组件的精确机械定位,这增加了***的复杂性。
发明内容
根据实施例,一种触摸***包括触摸感测平面和位于触摸感测平面附近的摄像机组件。摄像机组件包括图像传感器和具有与触摸感测平面相关联的至少两个视场的至少一个虚拟摄像机。至少一个虚拟摄像机包括:光学部件,沿着至少一条光路导引邻近触摸感测平面的光。光学部件将光导引和聚焦到图像传感器的不同区域上。
根据实施例,一种触摸***包括触摸感测平面和位于触摸感测平面附近的摄像机组件。摄像机组件包括图像传感器,用于检测与触摸感测平面内的光相关联的光级。光级被配置为用于确定触摸感测平面内的一个触摸或同时触摸的至少二维的坐标位置。
根据实施例,一种用于检测一个触摸或同时触摸的摄像机组件包括图像传感器和光学部件,其中,光学部件沿着至少一条光学路径导引与至少两个视场相关联的光。光学部件将与视场之一相关联的光导引和聚焦到图像传感器的一个区域上,并且将与另一视场相关联的光导引和聚焦到图像传感器的不同区域上。与光相关联的光级被配置为用于确定至少两个视场中的至少一个内的一个触摸或同时触摸的坐标位置。
附图说明
图1A示出了根据使用图像传感器的本发明实施例形成的触摸***;
图1B示出了根据位于图1A的***的触摸表面附近的本发明实施例形成的触摸感测平面。
图2示出了根据本发明实施例的图1A中显示屏的角中安装的的摄像机组件。
图3示出了根据本发明实施例的图1A的摄像机组件的虚拟摄像机的视场的一部分。
图4A示出了根据本发明实施例的可以在摄像机组件中使用的二维图像传感器的传感器表面。
图4B和4C示出了根据本发明实施例的能够在摄像机组件中使用的两个不同线性传感器的传感器表面。
图5A和5B示出了根据本发明实施例的摄像机组件的模型的两个不同视图。
图6示出了曲线,其指示根据本发明实施例的图像传感器的传感器表面上的像素所检测的光级。
图7示出了根据本发明实施例所形成的触摸***,该触摸***包括在触摸表面或触摸感测平面的不同角附近安装的两个摄像机组件。
图8示出了根据本发明实施例的触摸***,该触摸***具有多个摄像机组件和在触摸屏附近安装的具有视频能力的摄像机。
具体实施方式
当结合附图进行阅读时,将更好地理解上述概要以及本公开特定实施例的以下详细描述。在这个意义上,附图说明各个实施例的功能块,功能块并不指示硬件电路之间的分开。因而,例如,可以以单块硬件(例如,通用信号处理器或随机存取存储器、硬盘等等)实现一个或多个功能块(例如,处理器或存储器)。类似地,程序可以是独立程序,可以合并为操作***中的子例程,可以是安装软件包的中的功能,等等。应该理解,各种实施例不限于附图所示的布置和手段。
图1A示出了触摸***100。触摸***100可以具有触摸表面102,触摸表面102可以是一片玻璃、塑料、平板显示器、窗口或另一显示屏幕或在感兴趣的对象前方放置的其它透明材料,等等。触摸表面102,或触摸表面102后面的其它显示器可以显示具有虚拟按钮和图标或其它图形表示法的图形用户接口(GUI)。因此,在一些实施例中,触摸表面102可以是显示屏幕,但是并非限于此。在其它实施例中,触摸表面102可以与显示的图形在物理上远离,以用作跟踪板。尽管所示触摸表面102为矩形,但是应该理解,可以使用其它形状。
图1B示出了位于触摸表面102附近的触摸感测平面170。在其它实施例中,可以不使用触摸表面102。触摸感测平面170可以是由一束光照射的空气空间,具有能够从触摸表面102向外测量的深度D。光束可以是红外,因而对于用户是不可见的。可以使用不同深度。例如,在一些应用中,可以希望检测在指示器移动通过触摸感测平面170的深度时指示器到触摸表面102的距离。在一些实施例中,可以在指示器接触触摸表面102之前检测触摸。在其它实施例中,***100可以在指示器距离触摸表面102的预定距离内时或者当指示器位于触摸感测平面170内时检测“触摸”。在另一实施例中,***100可以基于指示器到触摸表面102的距离或者指示器相对于厚度D的位置来发起不同响应。
参考图1A和1B,在触摸表面102或触摸感测平面170的一个角144附近安装摄像机组件104。在其它实施例中,可以在触摸感测平面170或触摸表面102的不同角附近或者沿着触摸感测平面170或触摸表面102的侧边(例如,两个角之间的中间位置)安装摄像机组件104。然而,摄像机组件沿着触摸表面102或触摸感测平面170的侧边的位置不限于中间位置。一般而言,摄像机组件104检测触摸表面102或触摸感测平面170附近的光,且在电缆106上向触摸屏控制器108发送关于检测到的光的信息,例如光级。触摸屏幕控制器108可以经由电缆106向摄像机组件104提供一些控制信号和/或功率。在另一实施例中,可以无线地向触摸屏控制器108发送由摄像机组件104检测的信息。
摄像机组件104包括图像传感器130和至少一个虚拟摄像机。虚拟摄像机也可以称作有效摄像机。在一个实施例中,图像传感器130可以是二维(2D)图像传感器,可以是数字摄像机中使用的传感器类型。在另一实施例中,图像传感器130可以是线性传感器。在一些实施例中,线性传感器的长度可以使得不同区域能够用于检测与不同视场相关联的光级,这将在下文进一步讨论。在图1A的实施例中,四个虚拟摄像机132、134、136和138用于检测至少四个不同视场。沿着触摸表面102和/或触摸感测平面170的一边140邻近角144放置虚拟摄像机132和134位于,并且沿着触摸表面102和/或触摸感测平面170的另一边142邻近角144放置虚拟摄像机136和138。虚拟摄像机132-138具有彼此互相可替换的光学轴。虚拟摄像机包括光学部件,光学部件将触摸表面102附近与触摸表面102或触摸感测平面170的一个或多个预定视场相关联的的光导引到图像传感器130的一个或多个预定区域上。虚拟摄像机包括具有不同视场但光学轴彼此相邻的光学部件。每个虚拟摄像机可以具有一个视场或者形成一个有效视场的多于一个的视场。如果多个视场形成一个有效视场,则多个视场的光学轴可以彼此靠近。
在一个实施例中,导引光可以包括聚焦、反射和折射光部件中的一项或多项。例如,虚拟摄像机132具有光学部件160、162、164和166。沿着延伸至图像传感器130的光路通过至少一个光学部件(例如,部件160),以及通过光学部件(例如,部件162、164和166)光路来导引触摸表面102附近的光。于是,光被导引和聚焦到图像传感器130的预定区域上。因此,每个虚拟摄像机132-138具有沿着与虚拟摄像机相关联的光路导引来自触摸表面102的预定视场光路的光的光学部件。来每条光路的光被导引和聚焦到图像传感器130的不同预定区域。在一个实施例中,可以结合结构部件的机械对准而非通过结构部件的机械对准,来由软件完成所导引和聚焦的光相对于图像传感器130的区域的对准。
在一些实施例中,摄像机组件104可以包括光源146,光源146利用光束照射触摸感测平面170。触摸感测平面170可以实质上平行于触摸表面102。光源146可以是红外光源,然而也可以使用其它频率的光。因此,光源146可以是可见光源。在另一实施例中,光源146可以是诸如垂直腔面发射激光器(VCSEL)等激光二极管,与备选红外光源相比,其可以提供更精细的扇形波束。光源146可以在***100是激活时提供恒定照射,或者可以以普通间隔提供光脉冲。光源146可以照射整个触摸感测平面170或者触摸感测平面170的一部分。在另一实施例中,可以在不同角的附近或者沿着触摸表面102或触摸感测平面170的侧边安装第二光源156。因此,在一些实施例中,可以使用多于一个光源,并且在其它实施例中,光源可以远离摄像机组件104。
在一些实施例中,在触摸表面102的侧边140、142、152和154的附近安装反射器148。反射器148可以包括回射材料或其它反射材料,并且可以向着摄像机组件104反射来自光源146的光。可以在触摸表面102周围的玻璃框(bezel)150或框架的内边缘上安装反射器148,或者反射器148可以与触摸表面102周围的玻璃框150或框架的内边缘成为一体。例如,反射器148可以是施加于玻璃框150的一个或多个表面的带子、涂料或者其它涂覆物质。在一个实施例中,反射器148可以绕着触摸表面102的所有侧边完全延伸,在另一实施例中,反射器148可以沿着一些侧边(例如沿着与摄像机组件104相对的侧边152和154)完全延伸,而沿着侧边140和142部分地延伸,以不紧邻摄像机组件104附近延伸。
处理器模块110可以经由电缆106接收向触摸屏控制器108发送的信号。尽管分离地示出,但是触摸屏控制器108和图像传感器130可以位于同一单元内。三角测量模块112可以处理信号,以确定信号是否指示触摸表面102上的无触摸、一个触摸、还是触两个或多个同时触摸。例如,当不存在触摸时,光级可以处于基线曲线(baseline profle)。***100可以基于环境光周期性地更新基线曲线,以对日光和室内照明的变化加以考虑。在一个实施例中,如果存在一个或多个触摸,则可以检测到传感器130的至少一个区域上光的减少。在另一实施例中,可以通过传感器130的至少一个区域上光的增加来指示一个或多个触摸的存在。在一个实施例中,三角测量模块112还可以识别任何检测到的触摸的关联坐标。在一些实施例中,处理器模块110还可以访问查找表116或者存储器114中能够存储的其它存储格式。可以使用查找表116来存储用于识别一个或多个触摸的位置的坐标信息。例如,可以识别(X,Y)坐标。在另一实施例中,可以识别(X,Y,Z)坐标,其中,Z轴提供诸如手指或触控笔之类的对象距离触摸表面102有多近的指示或者对象在触摸感测平面170的深度内的位置的指示。还可以确定与物体移动有多快相关的信息。因此,三角测量模块112可以识别距离触摸表面102的预定距离内的一个或多个触摸。因此,可以在触摸与触摸表面102相接触时和/或在触摸紧邻触摸表面102而没有与其相接触时,检测触摸。在一些实施例中,用于识别一个或多个触摸的存在和坐标的信号处理可以以不在触摸屏控制器108内的硬件、软件和/或固件来完成。例如,处理器模块110和/或三角测量模块112和/或其处理功能可以在主计算机126或其它计算机或处理器内,或者在摄像机组件104内。
如本文所使用的,“同时触摸”指的是,在同一持续时间期间位于触摸感测平面170内的两个或多个触摸和/或与触摸表面相接触的两个或多个触摸,而非必须是同一时刻。因此,一个触摸可以具有在另一触摸(例如第二触摸)的持续时间开始之前开始的持续时间,并且第一触摸和第二触摸的至少一部分持续时间将在时间上彼此交叠。例如,当诸如手指或触控笔等对象在同一持续时间内接触触摸表面102的两个或多个不同位置(例如,位置118、120和122中的两个或多个)时,发生两个或多个同时触摸。类似地,当物体在同一持续时间内在距离触摸表面102预定距离内而没有接触触摸表面102的两个或多个不同位置时,发生两个或多个同时触摸。在一些实施例中,一个触摸可以接触触摸表面102,而另一同时触摸在触摸表面102附近但未接触触摸表面102。
当识别出一个或多个触摸时,处理器模块110可以向能够在固件或硬件的一个或多个模块内存储的显示模块124传送(X,Y)坐标(或(X,Y,Z)坐标)。显示模块124可以是图形用户界面(GUI)模块。在一个实施例中,显示模块124在主计算机126上运行,此外,主计算机126还运行用户感兴趣的应用程序代码。显示模块124确定坐标是否指示触摸表面102上显示的按钮或图标的选择。如果选择了按钮,则主计算机126或其它部件(未示出)可以采取基于与特定按钮相关联的功能的进一步动作。显示模块124还可以确定一个或多个触摸是否与诸如缩放或旋转等手势相关联。一个或多个触摸还可以用于替代鼠标和/或其它光标输入。
图2示出了在触摸表面102的角114中安装的图1A的摄像机组件104。图像传感器130可以是线性传感器或二维(2D)图像传感器。在虚拟摄像机内,光学部件形成了一个复杂的光学***。光学部件可以具有一个光学表面或者多个光学表面。每个光学部件可以由(例如通过注塑成型的)单片材料形成,或者由已经结合、融合或以其他方式连接在一起形成单片的多于一片的材料形成。举例而言,一些光学表面可以是反射器表面,而一些光学表面可以是折射器表面。因此,光学部件可以类似于透镜或棱镜进行工作,因而可以折射光,和/或可以类似于反射镜进行工作,从而反射光。例如,对于虚拟摄像机132,与透镜的功能类似,光学部件200可以导引光,其中,用箭头202、204和206指示光。应该理解,光学部件200导引连续角视场(FOV)的光而非限于所示箭头202-206。光学部件200沿着光路214将光导向下个光学部件208。类似地,光学部件208将光导向光学部件210,光学部件210将光导向光学部件212。然后,光学部件212将光导引和聚焦到图像传感器130的预定区域上。因此,在一些实施例中,导引光可以包括折射、反射和聚焦中的一项或多项。光学部件200、208、210和212可以分别包括一个或多个光学表面。在一个实施例中,光学部件200、208、210和212中的一个或多个可以是反射镜,因而具有单光学表面。在一些实施例中,光路214也可以称作通道或光学中继。在其它实施例中,可以将光学路径214或通道拆分成两个或多个光路或子通道,这将在下文进一步讨论。应该理解,可以使用分别具有一个或多个光学表面的更多或更少的光学部件。
所导引的光被聚焦和/或导引到图像传感器130的传感器表面216的区域(区域218、220、222或224)上。在一个实施例中,图像传感器130可以是2D图像传感器,并且传感器表面216可以具有如图2所示的感测光级的多条感测线。感测线可以从传感器表面216的一侧延伸至相对侧,并且可以彼此平行。仅举例而言,感测线的宽度可以是一个像素,而长度是多个像素,例如至少700个像素。2D图像传感器可以具有VGA格式的多条感测线,例如480条。因此,区域218-224可以分别代表一条感测线,其中在一些实施例中,光学部件可以将光导引和聚焦到四条不同感测线,而在其它实施例中,可以将光导引和聚焦到多条相邻感测线上,这将在下文进一步讨论。在另一实施例中,2D图像传感器可以提供分组为结构而非线条的一组像素。
在另一实施例中,如果图像传感器130是线性传感器,则传感器表面216可以具有如下文的图4B所示的沿着线性传感器的长度延伸的单感测线。感测线的长度可以是多个像素。在又一实施例中,线性传感器可以具有如下文图4C所示的沿着线性传感器的长度延伸的多条感测线。于是,区域218-224可以表示设定或预定数目的像素。光学部件可以沿着单感测线将光导引和聚焦到像素组上或者沿着多条感测线将光导引和聚焦到像素组上。
参考图2所示的虚拟摄像机136,光学部件包括光学部件226,导引箭头228、230和232所指示的光。光学部件226沿着光路236将光导向光学部件234。光学部件226和234可以分别具有一个或多个折射器表面和/或一个或多个反射器表面。光路236可以短于光路214,因而可以使用更少的光学部件。光被导引和聚焦到图像传感器130的传感器表面216的不同区域上。在一个实施例中,虚拟摄像机132、134、136和138可以将光导引和聚焦到传感器表面216的彼此分离的区域和/或感测线上。
图3示出了虚拟摄像机132-138的视场的一部分,其能够组合地检测触摸表面102上的一个触摸或多个同时触摸的至少2维的坐标位置。例如,虚拟摄像机132具有FOV 300,虚拟摄像机134具有FOV 302,虚拟摄像机136具有FOV 304,以及虚拟摄像机138具有FOV 306。FOV300-306可以在触摸表面102上延伸到相对侧上的玻璃框150。在一个实施例中,FOV 300-306可以提供约90度的角覆盖(angular coverage),然而也可以设想其它角覆盖。FOV 300-306也可以称作角区段(angularsegments),并且可以被划分成更小的角区段。FOV 300-306可以认为是有效视场,其中,可以由多于一个的基本FOV构成FOV 300-306中的一个或多个。
FOV 300与视场302、304和306的至少一部分相交叠。在一个实施例中,虚拟摄像机的FOV可以与另一虚拟摄像机的FOV完全交叠。在另一实施例中,第一虚拟摄像机的FOV可以与多个其它虚拟摄像机的一些视场相交叠,但不与第二虚拟摄像机的另一FOV的任何部分相交叠。在再一实施例中,至少一些虚拟摄像机的FOV可以彼此相对邻近。
在图3所示的实施例中,虚拟摄像机132-138可以具有位于触摸表面102附近的两个光学表面,用于导引触摸表面102和/或触摸感测平面170附近的光,其中每个光学表面导引与关联的虚拟摄像机132-138的FOV的至少一部分相关联的光。例如,虚拟摄像机132具有光学部件200内的两个光学表面308和310。在另一实施例中,可以在分离的光学部件内形成光学表面308和310。光学表面308可以具有FOV 312,以及光学表面310可以具有FOV 314。在一个实施例中,视场312和314可以导引约45度的角覆盖。然而,应该理解,一个光学表面可以检测比整个FOV 300的二分之一要大的部分。此外,可以在虚拟摄像机中使用位于触摸表面102附近的多于两个的光学表面,用于导引整个FOV内来自相等数目视场的光。在一个实施例中,视场312和314可以至少部分交叠。在另一实施例中,视场312和314可以检测触摸表面102或触摸感测平面170的不交叠区域。虚拟摄像机的视场可以彼此相邻或者至少一些视场可以略微交叠。在一些实施例中,与单视场相比,在虚拟摄像机内具有多于一个基本视场可以提供更宽的角覆盖。
虚拟摄像机132的两个光学表面308和310导引触摸表面102附近的光和/或触摸感测平面170内的光。光学表面308与一个光路320相关联,以及光学表面310与另一光路322相关联。然而,可以通过使用虚拟摄像机132内的同组光学部件(例如,图2所示的光部件200、208、210和212)形成光路320和322。光路320和322可以彼此分离。在一些实施例中,光路320和322可以彼此共面。可以导引和聚焦光路320和322,以照射传感器表面216上彼此不同却都与虚拟摄像机132相关联的区域和/或线条,或者光路可以照射与虚拟摄像机132相关联的一个公共区域。
尽管在图3中,每个虚拟摄像机132-138示为具有两条光路,但是应该理解,虚拟摄像机132-138中的一个或多个可以具有一条光路,或者具有附加光学部件以形成多于两条光路。
触摸表面102的外部边缘上紧邻摄像机组件104可能出现一个或多个小死区,例如死区316和318。在一些实施例中,玻璃框150(如图1A所示)可以在触摸表面上延伸到覆盖死区316和318的程度。在另一实施例中,可以阻止GUI在死区316和318中放置任何可选图标。在又一实施例中,可以在不同角中或者沿着触摸表面102的边缘使用第二摄像机组件,以覆盖摄像机组件104所经历的死区316、318以及触摸表面102的其它区域。
图4A示出了2D图像传感器450的传感器表面216。尽管没有为所有感测线分配项编号,但是示出了传感器表面216上的多条感测线。在一个实施例中,可以提供480条或更多条感测线。如前所述,感测线可以包括感测所检测光的多个像素。
在图2中,与光路相关联的光示为被导引和聚焦到单感测线上。然而,在一些实施例中,光路的光可以被导引和聚焦到多条邻近或相邻线上,这可以提高分辨率。例如,在一个实施例中,光可以被导引和聚焦到四条相邻线上,而在另一实施例中,光可以被导引和聚焦到六条或八条相邻线上。应该理解,可以使用更多或更少的相邻线,并且与不同视场相关联的光可以被聚焦到不同数目的相邻线上。
参考图3和4A,与虚拟摄像机132的光学表面308和FOV 312相关联的导引光可以被导引和聚焦到2D图像传感器450中包括感测线340、341、342、343、344和345的区域上。感测线340和341是相邻线,感测线341和342是相邻线,依此类推。与虚拟摄像机132的光学表面310和FOV 314相关联的所导引的光可以被导引和聚焦到2D图像传感器450中包括感测线350、351、352、353、354和355的区域上。同样,感测线350和351是相邻线,感测线351和352是相邻线,依此类推。因此,感测线340-345形成相邻线集合396,而感测线350-355形成分离的另一相邻线集合398。然而,感测线345和350不是相邻线。在一个实施例中,至少一条感测线将两个相邻线集合396与398相分离。在所示实施例中,线346、347、348和349将两个相邻线集合396与相邻线集合398相分离。在一些实施例中,可以通过将来自一个虚拟摄像机的光导引和聚焦到多于一个的感测线集合上,来实现分辨率的提高,例如通过将与虚拟摄像机132的FOV 312和314相关联的光导引和聚焦到2D图像传感器450的不同区域上。
转到虚拟摄像机134,两个光学部件324和326导引与FOV 302相关联的光。与两个光学部件324和326相关联的光路可以被导引和聚焦到一个感测线集合上。例如,与光学部件324和326相关联的所导引的光可以被导引和聚焦到包括感测线360、361、362、363、364和365的区域上。再次,感测线360-365的集合可以与其它感测线集合相分离。
类似地,虚拟摄像机136可以具有两个光学部件328和330,用于导引与FOV 304相关联的光。所导引的光可以被导引和聚焦到相邻感测线370、371、372、373、374和375上。虚拟摄像机138可以具有两个光学部件332和334,用于导引与FOV 306相关联的光。来自光学部件332的所导引的光可以被导引和聚焦到相邻感测线380、381、382、383、384和385上,而来自光学部件334的所导引的光可以被导引和聚焦到相邻感测线390、391、392、393、394和395上。
可以相对于其它虚拟摄像机132、136和138的光学部件或表面移动一个虚拟摄像机(例如,虚拟摄像机134)的光学部件或光学表面,以提供双眼视觉。相反,可以认为彼此邻近的光学部件或光学表面(例如,光学表面308和310)处于同一虚拟摄像机内,原因在于这些光学表面增大了同一虚拟摄像机的有效角FOV。
图4B和4C分别示出了线性传感器452和454的传感器表面216。线性传感器452具有一条感测线456,而线性传感器454具有多条感测线458、460、462、464、466、468和470。线性传感器454也可以称作定制2D传感器。与图4A类似,与不同视场相关联的光可以被聚焦到传感器表面216的不同区域上。参见图4B的线性传感器452,与虚拟摄像机132的光学表面308和FOV 312相关联的所导引的光可以被导引和聚焦到感测线456中例如可以包括预定数目的像素的区域472上。与虚拟摄像机132的光学表面310和FOV 314相关联的所导引的光可以被导引和聚焦到感测线456的区域474上。参见图4C的线性传感器454,与虚拟摄像机132的光学表面308和FOV 312相关联的所导引的光可以被导引和聚焦到感测线458-470中的一条或多条的区域476上,其中区域476因而包括预定数目的像素和预定数目的感测线。与虚拟摄像机132的光学表面310和FOV 314相关联的所导引的光可以被导引和聚焦到感测线458-470中的一条或多条的区域478上。
应该理解,可以使用其它传感器结构。因此,可以使用不同感测线和像素布置,同时仍然提供将与不同视场相关联的光聚焦到图像传感器的不同区域的能力。
图5A和5B示出了摄像机组件104的模型。图5A示出了当向光源146的里面看时摄像机组件104的视图。图5B示出了注视图像传感器130的一部分时摄像机组件104的对侧的视图。底座400可以用于放置光学部件。在一个实施例中,光学部件可以由单片材料形成,例如模制塑料。在另一实施例中,可以分离地形成光学部件的部分,然后将其结合在一起。光学部件可以至少部分地由至少一种透明材料形成。尽管未示出,但是遮光板和/或其它不透明材料可以用于覆盖光学部件和图像传感器130的至少一部分。因此,与一个虚拟摄像机相关联的光学部件可以遮挡由环境光和/或其它虚拟摄像机产生的光污染。
结构402和404可以具有一个或多个通孔406、408和410,用于将摄像机组件104与关联于触摸表面102的其它结构相连。结构402和404可以延伸到光学部件的下方。可以设想其它结构上的附属的配置。
光学表面418和419与虚拟摄像机132相关联,光学表面420和421与虚拟摄像机134相关联,光学表面422和423与虚拟摄像机136相关联,以及光学表面424和425与虚拟摄像机138相关联。仅作为示例,光学表面418和419可以分别与不同光学部件相关联,或者可以与单个光学部件形成整体。在一个实施例中,与虚拟摄像机132、134、136和138相关联的一个或多个光学部件可以具有多于一个的光学表面。
如上所述,一些表面可以由光学上黑的或亮的遮蔽材料形成,或者可以用遮光材料来覆盖。例如,参见虚拟摄像机138和光学表面424和425,可以利用遮光材料覆盖或者涂覆表面430、432、434、436和438(距离触摸表面102和/或触摸感测平面170最近的实质上与其平行的表面)。类似地,可以利用遮光材料覆盖形成了将光路导引至图像传感器130的光学部件的材料的外表面。可以不用遮光材料来覆盖不会因其光干涉的表面。
参见图5B,虚拟摄像机132的光学表面418将光导引至形成光路的光学部件412。光被导向可以在印刷电路板428上安装的图像传感器130。当光接近传感器130时,光学部件将光向下导引和聚焦到传感器表面216上。应该理解,可以在不同位置定向传感器130;因此,传感器表面216不限于与触摸表面102实质上共面。尽管未示出,但是可以在印刷电路板428上包括其它部件,例如而不限于复杂可编程逻辑器件(CPLD)和微处理器。
图6示出了曲线614的图600,在垂直轴602指示图像传感器130的传感器表面216上检测到的光级,而水平轴604上指示图像传感器130的给定感测线的对应像素数目。举例而言,水平轴604从零像素延长至720像素,但是可以使用其它范围。可以确定基线曲线606,其指示在没有触摸时检测到的光级。在一个实施例中,基线曲线606可以是一个范围。此外,可以经常地或者以预定间隔更新基线曲线606,以适应环境光级的变化。例如,基线曲线可以随诸如日光和室内照明等环境变化而改变。在一个实施例中,当光路中的光被导引和聚焦到多于一条相邻感测线上时,每条相邻感测线将具有与同一FOV相关联的曲线。因此,如果与FOV 312相关联的光被导引和聚焦到感测线340-345上,则每条感测线可以具有与FOV 312相关联的曲线。
当存在触摸时,可以在图600中示出下凹(dip)。当在关联的FOV内存在多于一个触摸时,示出多于一个的下凹608和610。发生上述的原因在于手指、触控笔或其它选择物品可以阻止反射光回到虚拟摄像机。在所检测的光的增加用于检测触摸的其它实施例中,在图600中的基线曲线606的上方,将出现上突而非下凹。因此,可以基于所检测的光的增加来确定一个或多个触摸的检测。这可以发生在不使用图1A的***中所示的反射器148的触摸***中。在多条相邻感测线与FOV相关联的一些实施例中,相对于基线曲线606位移最大的下凹或者预定期望形状的下凹或者相对于基线曲线606位移最小的下凹可以用于识别触摸的坐标。
图像传感器130中的一部分像素可以单独地或者成组地与相对于特定虚拟相机的光学部件和/或特定虚拟相机的光学部件的光学表面的角度相关联。为了检测单触摸,可以通过以特定角度从光学表面画线且对线通过的触摸位置加以指示来完成三角测量。更严密的检测算法可以用于检测两个或多个同时触摸。在一些实施例中,查找表116可以单独用于识别触摸位置,或者查找表116可以加上其它算法用于识别触摸位置。
在一些实施例中,可以确定触摸的重心。例如,反射器148的使用可以改善重心确定,原因在于反射器148创建从光源146强烈返回,进而创建亮视频背景,在亮视频背景内,触摸看起来就如同界限分明的阴影一样。换句话说,当不存在触摸时,检测到强正返回信号,以及当存在触摸时,检测到返回信号的减少。
在一些实施例中,用于选择触摸位置的指示器可以对正信号做贡献,并且可能更加难以根据其关联重心进行限定,其中,所述正信号在某种程度上根据指示器颜色、反射率、纹理、形状等可变。在具有光源146和反射器148的触摸***中,指示器阻挡来自反射器148的强正返回信号。与来自指示器的正信号相反,返回信号的下降可以非常大,从而将指示器的反射效果表现为信号的净减少量,这不会对***100检测触摸坐标的能力产生负面影响。
图7示出了触摸***700,触摸***700包括如图1A所示的在角144附近安装的摄像机组件104和在触摸表面102和/或触摸感测平面170的角704附近安装的第二摄像机组件702。第二摄像机组件702包括另一图像传感器706(其可以是2D图像传感器或线性传感器)和如前所述的光学部件。角144和704可以彼此相邻,尽管不限于此。
附加摄像机组件702可以用于更鲁棒的触摸检测和/或识别增大数目的同时触摸。例如,当两个同时触摸彼此接近且远离摄像机组件时,或者当摄像机组件和这两个触摸相对于彼此基本上位于一条线上时,单摄像机组件不能够检测这两个同时触摸。参见图7,检测位置708处的触摸可以由摄像机组件104进行检测,但是也可能遮挡位置710处的触摸。然而,摄像机组件702可以精确地检测位置708处的触摸和位置710处的触摸二者。
如果触摸表面102和/或触摸感测平面170相对较大和/或多于一个的用户可以同时与触摸表面102相交互,则也可以使用附加摄像机组件702。摄像机组件104和702检测到的信息可以相结合并且一起用于识别触摸位置,或者可以分开用于识别触摸位置。摄像机组件702内的虚拟摄像机的视场可以至少部分地与图3中关于摄像机组件104来讨论的至少一些视场相交叠。然而,在一些实施例中,摄像机组件104和702中的至少一个可以具有不与另一个摄像机组件共享的至少一个FOV。
图8示出了触摸***800,触摸***800具有在触摸屏810的一个角808的附近安装的摄像机组件804、在触摸屏810的不同角812的附近安装的摄像机组件802、和在触摸屏810的一侧814的附近安装的摄像机组件806。尽管在摄像机组件802与804之间的近似中心处示出了摄像机组件806,但是可以在沿着侧边814的任何位置或者在触摸屏810的另一侧边828、830或832的附近安装摄像机组件806。摄像机组件802、804和806都可以具有2D图像传感器。所示摄像机组件802-806分别具有两个光学部件,为了简单起见,示出摄像机组件802-806分别包括两个虚拟摄像机。然而,应该理解,摄像机组件可以具有更多或更少的虚拟摄像机。在一些实施例中,摄像机组件806可以具有光源(与光源146类似),其沿着Z轴增大照度。“Z轴”指的是与X和Y坐标相垂直的3-D坐标,其中,能够沿着所述X和Y坐标指示距离。这可以改善沿着Z轴的一个或多个触摸的检测,进而改善可以基于指示器到触摸表面102的距离而改变的手势的使用。可以确定指示器的速度和指示器到触摸表面102的距离这二者。备选地,摄像机组件802、804和806中的一个或两个可以使用线性传感器和/或简单光学器件。
参见摄像机组件806,虚拟摄像机834和836中的一个或者二者可以具有比关联于摄像机组件802和804的虚拟摄像机的FOV大的FOV。例如,虚拟摄像机834和836可以分别具有高达180度的FOV。如前所述,例如图3所示的在显示屏的角附近安装的摄像机组件的虚拟摄像机可以具有近似90度的视场。
增大相对于触摸屏810不同区域中所处的摄像机组件的数目能够允许检测更多的同时触摸。如所示,存在位置816、818、820、822和824处的五个同时触摸。对于摄像机组件802,位置816处的触摸可以至少部分地遮挡位置820和824处的触摸。对于摄像机组件804,位置818处的触摸可以至少部分地遮掩位置820和822处的触摸。因此,摄像机组件802和804中的任何一个都检测不到位置820处的分离触摸。然而,通过添加摄像机组件806,检测到位置820处的触摸。类似地,对于摄像机组件806,位置816处的触摸可以至少部分地遮挡位置822处的触摸,而位置818处的触摸可以分别至少部分地遮挡位置824处的触摸。然而,在该配置中,摄像机组件802将检测位置822处的触摸,而摄像机组件804将检测位置824处的触摸。
为了检测增大数目的同时触摸和/或减少由触摸形成的盲点,可以在另外两个角838和840中的至少一个的附近或者在触摸屏810的侧边828、830和832的附近安装一个或多个附加摄像机组件(未示出)。
在一些实施例中,可以利用摄像头(例如,标准视频摄像机)或能够工作在可见波长范围内的其它视觉检测装置来替代摄像机组件之一,例如摄像机组件806。例如,如果一些视频色彩摄像机上的滤色器在不与附加IR阻挡滤波器相结合的情况下可以具有IR响应。因此,定制光学器件可以在摄像头通道中包括IR阻挡滤波器,并且在光感测通道中仍然具有IR响应。摄像头可以与***800分离,或者可以与***800成一体。可以使用摄像头的FOV的一部分来检测用于确定触摸感测平面170内(和/或触摸表面102上)的一个或多个触摸的坐标位置的数据和/或Z轴检测,同时还提供远程观看能力,例如***800的用户的视频图像数据,和可能地,周围区域的用户的视频图像数据。举例而言,可以使用分视场光学器件,其中,摄像头的光学器件的一个或多个部分或区域用于触摸检测和/或Z轴检测,而摄像头的光学器件的其它部分用于获取视频信息。在一些实施例中,摄像头可以包括与先前关于摄像机组件讨论的那些部件相似的光学部件,并且还可以包括光源。在一些实施例中,可以基于确定多个触摸和手势所需的分辨率来选择摄像机的分辨率和帧速。
在一些实施例中,图像传感器130可以与单透镜、棱镜和/或反射镜一同使用,以形成用于检测一个FOV的摄像机组件。在其它实施例中,图像传感器130可以与多于一个单透镜或棱镜一同使用,以形成用于检测多于一个FOV的摄像机组件。此外,在同一触摸***中,使用单透镜或棱镜的摄像机组件可以一起用作使用更复杂配置的摄像机组件,其中,所述更复杂配置使用多个光学部件和/或多个光学表面来检测多个视场。
应该理解,以上描述旨在说明,而非限制。例如,可以彼此结合地使用上述实施例(和/或上述实施例的多个方面)。此外,可以在不背离本发明的范围的情况下进行许多修改,以使特定情况或材料适应于本发明的教导。这个书面描述使用示例来公开本发明(包括最佳模式),且还使能本领域的任何技术人员实践本发明,包括制造和使用任何设备或以及执行任何合并方法。尽管本文描述的材料的尺寸和类型旨在定义本发明的参数,但是其不意味着限制,且其是示例性实施例。通过回顾以上描述,许多其它实施例对于本领域技术人员而言将是显而易见的。因此,应该参考所附权利要求以及这些权利要求有权享有的等价物的全范围来确定本发明的范围。在所附权利要求中,术语“包括”和“其中”用作相应术语“包括”和“其中”的简明英语的等价物。此外,在所附权利要求中,术语“第一”、“第二”和“第三”等仅用作标记,而并非旨在将数字要求强加到其对象上。

Claims (20)

1.一种触摸***,包括:
触摸感测平面;以及
摄像机组件,位于触摸感测平面附近,所述摄像机组件包括:
图像传感器;以及
至少一个虚拟摄像机,包括与触摸感测平面相关联的至少两个视场,所述至少一个虚拟摄像机包括光学部件,所述光学部件被配置为沿着至少一条光路导引触摸感测平面附近的光,并且将光导引和聚焦到图像传感器的不同区域上。
2.如权利要求1所述的***,还包括:光源,被配置为照射触摸感测平面。
3.如权利要求1所述的***,其中,至少一个光学部件包括折射表面和反射表面中的至少一个。
4.如权利要求1所述的***,还包括:触摸表面,触摸感测平面置于触摸表面附近。
5.如权利要求1所述的***,其中,图像传感器包括二维图像传感器,其中,所述二维图像传感器包括具有多条感测线的传感器表面,并且至少一个光学部件被配置为将所述至少一条光路中的光导引和聚焦到一条感测线上或者相邻感测线集合上。
6.如权利要求1所述的***,其中,图像传感器包括二维图像传感器,其中,所述二维图像传感器包括具有多条感测线的传感器表面,并且所述至少一条光路还包括至少两条光路,其中光学部件还被配置为将所述至少两条光路中的光导引和聚焦到二维图像传感器上的不同感测线上或者不同相邻感测线集合上。
7.如权利要求1所述的***,其中,所述至少一个虚拟摄像机还包括四个虚拟摄像机,所述四个虚拟摄像机检测与触摸感测平面相关联的至少一个对应视场。
8.如权利要求1所述的***,还包括:
光源,被配置为照射触摸感测平面;以及
反射器,安装在触摸感测平面的至少一侧附近,且被配置为向摄像机组件反射来自光源的光。
9.如权利要求1所述的***,其中,所述至少一个虚拟摄像机包括至少两个虚拟摄像机,其中,所述至少两个虚拟摄像机之一的光学部件位于触摸感测平面的一侧附近,以及所述至少两个虚拟摄像机中的另一个的光学部件位于触摸感测平面的另一侧附近。
10.如权利要求1所述的***,还包括:处理器模块,被配置为基于与图像传感器的不同区域上聚焦的光相关联的光级,来确定触摸感测平面内的一个触摸或同时触摸的坐标位置。
11.如权利要求1所述的***,其中,摄像机组件置于触摸感测平面的角附近,所述***还包括置于触摸感测平面的侧边附近或者另一角附近的另一摄像机组件。
12.如权利要求11所述的***,所述***还包括:至少一个附加摄像机组件,置于触摸感测平面的另外的角附近,或者置于触摸感测平面的另一侧附近。
13.如权利要求1所述的***,其中,摄像机组件置于触摸感测平面的角附近,所述***还包括:置于触摸感测平面的另一角附近或者置于触摸感测平面的侧边附近的摄像机,其中,所述摄像机被配置为获取至少视频图像数据、配置为用于确定一个触摸或同时触摸的坐标位置的数据、以及与所述一个触摸或同时触摸相关联的Z轴数据。
14.如权利要求1所述的***,其中,图像传感器是线性传感器或二维图像传感器。
15.一种触摸***,包括:
触摸感测平面;以及
摄像机组件,置于触摸感测平面附近,所述摄像机组件包括被配置为检测与触摸感测平面内的光相关联的光级的图像传感器,所述光级被配置为用于确定触摸感测平面内一个触摸或同时触摸的至少二维的坐标位置。
16.如权利要求15所述的***,还包括:至少一个附加摄像机组件,置于触摸感测平面附近,且包括被配置为检测与触摸感测平面内的光相关联的光级的另一图像传感器,所述光级用于进一步确定触摸感测平面内所述一个触摸或同时触摸的至少二维的坐标位置。
17.如权利要求15所述的***,还包括:处理器模块,被配置为确定触摸感测平面内所述一个触摸或同时触摸的坐标位置。
18.如权利要求15所述的***,其中,图像传感器包括线性传感器和二维图像传感器之一。
19.如权利要求15所述的***,其中,摄像机组件还包括:光学部件,被配置为将包括触摸感测平面的至少一部分的视场内检测到的光导引和聚焦到图像传感器的区域上,所述光学部件还被配置为将包括触摸感测平面的至少一部分的另一视场内检测到的光导引和聚焦到图像传感器的另一区域上。
20.一种摄像机组件,用于检测一个触摸或同时触摸,所述摄像机组件包括:
图像传感器;以及
光学部件,被配置为沿着至少一条光学路径导引与至少两个视场相关联的光,将与视场之一相关联的光导引和聚焦到图像传感器的一个区域上并且将与视场中另一个相关联的光导引和聚焦到图像传感器的另一区域上,与光相关联的光级被配置为用于确定所述至少两个视场中的至少一个内的一个触摸或同时触摸的坐标位置。
CN201180011765XA 2010-01-29 2011-01-24 使用光学部件在图像传感器上成像多个视场的触摸*** Pending CN102792249A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/696,475 US20110187678A1 (en) 2010-01-29 2010-01-29 Touch system using optical components to image multiple fields of view on an image sensor
US12/696,475 2010-01-29
PCT/US2011/022295 WO2011094165A1 (en) 2010-01-29 2011-01-24 Touch system using optical components to image multiple fields of view on an image sensor

Publications (1)

Publication Number Publication Date
CN102792249A true CN102792249A (zh) 2012-11-21

Family

ID=43919807

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180011765XA Pending CN102792249A (zh) 2010-01-29 2011-01-24 使用光学部件在图像传感器上成像多个视场的触摸***

Country Status (5)

Country Link
US (1) US20110187678A1 (zh)
EP (1) EP2529289A1 (zh)
CN (1) CN102792249A (zh)
TW (1) TW201214245A (zh)
WO (1) WO2011094165A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988640A (zh) * 2015-01-20 2016-10-05 纬创资通股份有限公司 光学触控装置及其触控检测方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092092B2 (en) 2008-08-07 2015-07-28 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using touch event templates
US20110254939A1 (en) * 2010-04-16 2011-10-20 Tatiana Pavlovna Kadantseva Detecting User Input Provided To A Projected User Interface
TWI433008B (zh) * 2010-04-21 2014-04-01 Pixart Imaging Inc 光學式觸控裝置及其光感測模組
US8325233B2 (en) * 2010-08-21 2012-12-04 Yan-Hong Chiang Video radar display system
EP2609491A1 (en) * 2010-08-27 2013-07-03 BrainLAB AG Multiple-layer pointing position determination on a medical display
US20120105373A1 (en) * 2010-10-31 2012-05-03 Chih-Min Liu Method for detecting touch status of surface of input device and input device thereof
US20120120026A1 (en) * 2010-11-16 2012-05-17 Pixart Imaging Inc. Optical touch device and light sensing module thereof
US8390591B2 (en) * 2010-11-22 2013-03-05 Integrated Device Technology, Inc. Proportional area weighted sensor for two-dimensional locations on a touch-screen
TW201326755A (zh) * 2011-12-29 2013-07-01 Ind Tech Res Inst 測距裝置、測距方法及互動式顯示系統
US9098147B2 (en) * 2011-12-29 2015-08-04 Industrial Technology Research Institute Ranging apparatus, ranging method, and interactive display system
US8773591B1 (en) 2012-08-13 2014-07-08 Nongqiang Fan Method and apparatus for interacting with television screen
TWI470514B (zh) * 2012-11-08 2015-01-21 Wistron Corp 判斷鏡頭裝置是否偏移之方法及其光學觸控系統
JP2014203323A (ja) * 2013-04-08 2014-10-27 船井電機株式会社 空間入力装置
WO2015183232A1 (en) * 2014-05-26 2015-12-03 Nongqiang Fan Method and apparatus for interacting with display screen
CN104571731B (zh) * 2015-02-16 2017-06-09 京东方科技集团股份有限公司 触摸面板和显示装置
CN112925149B (zh) * 2021-02-08 2022-01-14 杭州海康威视数字技术股份有限公司 摄像机

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004102523A1 (en) * 2003-05-19 2004-11-25 Itzhak Baruch Optical coordinate input device comprising few elements
US20050078095A1 (en) * 2003-10-09 2005-04-14 Ung Chi Man Charles Apparatus for determining the location of a pointer within a region of interest
WO2009132590A1 (zh) * 2008-04-30 2009-11-05 北京汇冠新技术有限公司 一种用于触摸屏的图像传感器和图像传感装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144449A (en) * 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
US4507557A (en) * 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
US4782328A (en) * 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
US5317140A (en) * 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US6824533B2 (en) * 2000-11-29 2004-11-30 Hill-Rom Services, Inc. Wound treatment apparatus
US6690363B2 (en) * 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6774889B1 (en) * 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
US6919880B2 (en) * 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US20040001144A1 (en) * 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US6972401B2 (en) * 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7629967B2 (en) * 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7256772B2 (en) * 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
EP1743277A4 (en) * 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
US7372456B2 (en) * 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
US7355594B2 (en) * 2004-09-30 2008-04-08 Symbol Technologies, Inc. Optical touch screen arrangement
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
HUE049974T2 (hu) * 2005-01-07 2020-11-30 Qualcomm Inc Képeken lévõ objektumok észlelése és követése
US9442607B2 (en) * 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
CN101636745A (zh) * 2006-12-29 2010-01-27 格斯图尔泰克股份有限公司 使用增强型交互***操纵虚拟对象
WO2008101183A2 (en) * 2007-02-15 2008-08-21 Gesturetek, Inc. Enhanced input using flashing electromagnetic radiation
US20080208517A1 (en) * 2007-02-23 2008-08-28 Gesturetek, Inc. Enhanced Single-Sensor Position Detection
WO2008128096A2 (en) * 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004102523A1 (en) * 2003-05-19 2004-11-25 Itzhak Baruch Optical coordinate input device comprising few elements
US20050078095A1 (en) * 2003-10-09 2005-04-14 Ung Chi Man Charles Apparatus for determining the location of a pointer within a region of interest
WO2009132590A1 (zh) * 2008-04-30 2009-11-05 北京汇冠新技术有限公司 一种用于触摸屏的图像传感器和图像传感装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988640A (zh) * 2015-01-20 2016-10-05 纬创资通股份有限公司 光学触控装置及其触控检测方法
TWI582672B (zh) * 2015-01-20 2017-05-11 緯創資通股份有限公司 光學觸控裝置及其觸控偵測方法
US9772718B2 (en) 2015-01-20 2017-09-26 Wistron Corporation Optical touch device and touch detecting method using the same
CN105988640B (zh) * 2015-01-20 2019-04-12 纬创资通股份有限公司 光学触控装置及其触控检测方法

Also Published As

Publication number Publication date
EP2529289A1 (en) 2012-12-05
US20110187678A1 (en) 2011-08-04
WO2011094165A1 (en) 2011-08-04
TW201214245A (en) 2012-04-01

Similar Documents

Publication Publication Date Title
CN102792249A (zh) 使用光学部件在图像传感器上成像多个视场的触摸***
CN101663637B (zh) 利用悬浮和点击输入法的触摸屏***
US9213443B2 (en) Optical touch screen systems using reflected light
US9207800B1 (en) Integrated light guide and touch screen frame and multi-touch determination method
KR101831350B1 (ko) 카메라 기반 멀티 터치 상호작용 및 조명 시스템과 방법
US20140104240A1 (en) Light-based proximity detection system and user interface
KR20120013400A (ko) 광학적 위치 검출 장치
WO2010137277A1 (en) Optical position detection apparatus
US20100238139A1 (en) Optical touch screen systems using wide light beams
KR20100075460A (ko) 저 프로파일 터치 패널 시스템
WO2010039663A2 (en) Stereo optical sensors for resolving multi-touch in a touch detection system
JP6721875B2 (ja) 非接触入力装置
JP2016154035A (ja) 光センサ付きディスプレイ及び非接触入力方法
JP2005107607A (ja) 光学式位置検出装置
US20110199337A1 (en) Object-detecting system and method by use of non-coincident fields of light
KR20140068927A (ko) 사용자 인터페이스 표시 장치
JP6528964B2 (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
EP3887192B1 (en) Motorist user interface sensor
CN102203694A (zh) 具有附接到框架的照相机的对象定位***
JP6233941B1 (ja) 非接触式の三次元タッチパネル、非接触式の三次元タッチパネルシステム、非接触式の三次元タッチパネルの制御方法、プログラム及び記録媒体
JP2018013858A (ja) 位置検知システム
US9189106B2 (en) Optical touch panel system and positioning method thereof
WO2024079971A1 (ja) インタフェース装置及びインタフェースシステム
JP5957611B1 (ja) 非接触入力装置及び方法
KR20240056232A (ko) 회전 타입 렌즈가 구비된 물체의 위치 검출 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C05 Deemed withdrawal (patent law before 1993)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20121121