CN105492990A - 触摸输入关联 - Google Patents
触摸输入关联 Download PDFInfo
- Publication number
- CN105492990A CN105492990A CN201380079241.3A CN201380079241A CN105492990A CN 105492990 A CN105492990 A CN 105492990A CN 201380079241 A CN201380079241 A CN 201380079241A CN 105492990 A CN105492990 A CN 105492990A
- Authority
- CN
- China
- Prior art keywords
- touch
- pad
- input
- vertical
- sensitive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1639—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1647—Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
在根据本公开的一个示例中,提供一种投影式计算***实施的方法。所述方法包括:在竖直显示器上显示第一界面,将第二界面投影到水平触摸敏感垫上,接收触摸输入修改请求,以及将触摸输入关联从所述水平触摸敏感垫改变成所述竖直显示器,使得所述水平触摸敏感垫上的触摸输入控制所述竖直显示器上显示的所述第一界面。
Description
背景技术
计算机***通常采用一个显示器或者安装在支架上和/或被纳入到计算机***的一些其他组件中的多个显示器。针对采用触摸敏感技术的显示器(例如,触摸屏),用户通常期望在***运行期间直接与这些显示器交互,以充分利用这种触摸技术。但是,单纯观看其上的图像的显示器的最佳人体工程学位置通常与用于和其进行接触交互的这种位置不一致。因此,想要针对传统的查看应用以及触摸交互应用两者使用单个计算机***的用户经常遇到定位和/或利用这种***方面的困难。
附图说明
为了各种示例的详细描述,现在将参照各附图,其中:
图1是根据本文公开的原理的投影式计算机***的示例的示意透视图;
图2是根据本文公开的原理的图1的计算机***的另一示意透视图;
图3是根据本文公开的原理的图1的计算机***的示意侧视图;
图4是根据本文公开的原理的图1的计算机***的示意前视图;
图5是根据本文公开的原理的运行期间的图1的计算机***的示意侧视图;
图6是根据本文公开的原理的运行期间的图1的***的示意前视图;
图7是根据本文公开的原理的图1的计算机***的黑盒电路图;
图8是根据本文公开的原理的图1的***实施的过程的过程流程图;
图9是根据本文公开的原理,在输入设备触摸或接近水平触摸敏感垫时示出图1的计算机***的竖直显示器上提供的标记的示意图;以及
图10是根据本文公开的原理示出投影到图1的计算机***的水平触摸敏感垫上的竖直显示器上的克隆的示意图。
具体实施方式
在整个下面的说明书以及权利要求中使用某些术语以指特定***组件。本领域的技术人员将理解,计算机公司可通过不同的名称来指组件。本文不意在区分名称不同而不是功能不同的组件。在下面的讨论中以及在权利要求中,术语“包括”和“包含”以开放式的方式使用,并且因此,应解释为表示“包括,但不限于…”。此外,术语“联接”或“连接”意在表示间接连接或直接连接。因此,如果第一设备联接至第二设备,该连接可以是通过直接的电的连接或直接的机械的连接、通过经由其他设备和连接的间接的电的连接或间接的物理的连接、通过光电的连接、或通过无线电的连接。如本文所使用的,术语“近似”表示±10%。此外,如本文所使用的,短语“用户输入设备”指由用户提供输入到电子***中的任意合适的设备,用户输入设备例如鼠标、键盘、手(或其任意手指)、手写笔、定点设备,等等。此外,术语“竖直”意在表示直立且近似垂直于水平面。另外,术语“水平”意在表示近似平行于水平面。
下面的讨论针对本公开的各种示例。尽管这些示例中的一个或多个示例可能是优选的,但所公开的示例不应解释或除此之外用作限制本公开(包括权利要求)的范围。另外,本领域的技术人员将理解:下面的描述具有广泛的应用,并且任意示例的讨论仅表示该示例的描述,且不意在暗示本公开(包括权利要求)的范围受限于该示例。
现在参照图1-图4,根据本文公开的原理示出投影式计算***100。在此示例中,***100通常包括支撑结构110、计算设备150、投影仪单元180、以及触摸敏感垫200。计算设备150可包括任意合适的计算设备,而仍然符合本文公开的原理。例如,在一些实现方式中,设备150可包括电子显示器、智能电话、平板电脑、一体机(即,显示器也安置在计算机的板上)、或它们一些的组合。在此示例中,设备150是一体机,包括中轴或中心线155、第一侧或顶侧150a、与顶侧150a轴向相对的第二侧或底侧150b、在侧150a、150b之间轴向延伸的前侧150c、也在侧150a、150b之间轴向延伸且一般与前侧150c径向相对的后侧。显示器152定义观看面,并且沿前侧150c布置,以投影用于观看的图像以及由用户进行的交互(未示出)。在一些示例中,显示器152不是触摸敏感的。在其他示例中,显示器152包括触摸敏感技术,触摸敏感技术例如,电阻式、电容式、声波、红外(IR)、应变仪、光学、声脉冲识别、或它们一些的组合。因此,在整个下面的描述中,显示器152可偶尔称作触摸敏感的或非触摸敏感的表面或显示器。另外,在一些示例中,设备150进一步包括摄像头154,其用于当用户位于显示器152前时采集他或她的图像。在一些实现方式中,摄像头154是网络摄像头。此外,在一些示例中,设备150还包括麦克风或类似的设备,其被设置成在运行期间接收来自用户的语音输入(例如,声音)。
仍参照图1-图4,支撑结构110包括基部120、直立构件140、以及顶部160。基部120包括第一端或前端120a以及第二端或后端120b。在运行期间,基部120与支撑表面15接合,以在运行期间支撑***100的各组件的至少部分(例如,构件140、单元180、设备150、顶部160,等)的重量。在此示例中,基部120的前端120a包括在支撑表面15上略微分离的凸出部分122,由此在部分122和表面15之间产生空间或空隙。如下面将更详细解释的,在***100运行期间,垫200的一侧容纳在部分122和表面15之间形成的空间内,以确保垫200的正确对齐。但是,应理解,在其他示例中,可使用其他合适的对齐方法或设备,而仍然符合本文公开的原理。
直立构件140包括第一端或上端140a、与上端140a相对的第二端或下端104b、在端140a、140b之间延伸的第一侧或前侧140c、以及与前侧140c相对且也在端140a、140b之间延伸的第二侧或后侧140d。构件140的下端140b联接至基部120的后端120b,使得构件140大体上从支撑表面15向上延伸。
顶部160包括第一端或近端160a、与近端160a相对的第二端或远端160b、端160a、160b之间延伸的顶表面160c、以及与顶表面160c相对且也在端160a、160b之间延伸的底表面160d。顶部160的近端160a联接至直立构件140的上端140a,使得远端160b从其向外延伸。结果,在图2示出的示例中,顶部160仅在端160a处被支撑,并且因此,在本文被称作“悬臂式”顶部。在一些示例中,基部120、构件140以及顶部160全部整体形成;但是,应理解,在其他示例中,基部120、构件140和/或顶部160可以不是整体形成的,而仍然符合本文公开的原理。
仍参照图1-图4,垫200包括中轴或中心线205、第一侧或前侧200a、以及与前侧200a轴向相对的第二侧或后侧200b。在此示例中,触摸敏感表面202布置在垫200上,并且大体上与轴205对齐。表面202可包括任意合适的触摸敏感技术,该触摸敏感技术用于探测和追踪用户的一个或多个触摸输入,以允许用户与由设备150或一些其他计算设备(未示出)执行的软件交互。例如,在一些实现方式中,表面202可利用已知的触摸敏感技术,例如,电阻式、电容式、声波、红外、应变仪、光学、声脉冲识别、或它们一些的组合,而仍然符合本文公开的原理。另外,在此示例中,表面202仅在垫200的部分上延伸;但是,应理解,在其他示例中,表面202可大体上在整个垫200上延伸,而仍然符合本文公开的原理。此外,在下面参照图7-图10进一步讨论的一些示例中,根据用户偏好,垫200上的触摸输入可或者与投射到垫200上的水平界面关联,或者与由显示器152提供的竖直界面关联。因此,用户可随意地利用水平垫200上的触摸来控制由竖直显示器152提供的界面。
在运行期间,垫200如之前描述的与结构110的基部120对齐,以确保其恰好对齐。特别地,在此示例中,垫200的后侧200b被置于基部120的凸出部分122和支撑表面15之间,使得后端200b与基部的前侧120b对齐,由此,确保垫200(且特别地,表面202)与***100内的其他组件恰好整体对齐。在一些示例中,垫200与设备150对齐,使得设备150的中心线155大体上与垫200的中心线205对齐;但是,其他对齐是可能的。另外,如将在下面更详细描述的,在至少一些示例中,垫200的表面202和设备150彼此电联接,使得由表面202接收的用户输入被传递至设备150。可在表面202和设备150之间使用任意合适的无线或有线电联接或连接,诸如WI-FI、(蓝牙)、超声、电缆、电引线(electricalleads)、具有磁保持力的电气弹簧顶针、或它们一些的组合,而仍然符合本文公开的原理。在此示例中,布置在垫200的后侧200b上的暴露的电触点与基部120的部分122内的对应的电气探针引线接合,以在运行期间在设备150和表面202之间传送信号。另外,在此示例中,电触点由之前描述的位于基部120的部分122和表面15之间的空隙中的附近的磁铁合在一起,以磁力地吸引并保持(例如,机械地)沿垫200的后侧200b布置的对应的铁和/或磁材料。
现在特别参照图3,投影仪单元180包括外壳182、以及布置在外壳182内的投影仪组件184。壳182包括第一端或上端182a、与上端182a相对的第二端或下端182b、以及内腔183。在此实施例中,壳182进一步包括联接或安装构件186,其用于在运行期间与设备150接合并且支撑设备150。通常,构件186可以是用于悬挂并且支撑计算机设备(例如,设备150)的任意合适的构件或设备,而仍然符合本文公开的原理。例如,在一些实现方式中,构件186包括合页,该合页包括旋转轴,使得用户(未示出)可关于旋转轴旋转设备150,以达到与其的最佳视角。此外,在一些示例中,设备150永久地或半永久地附接于单元180的壳182。例如,在一些实现方式中,壳180和设备150完整地和/或整体地形成为单个单元。
因此,简单地参照图4,在设备150通过壳182上的安装构件186从结构110悬吊下来时,在从大体上面对布置在设备150的前侧150c上的显示器152的视图面或视角看***100时,投影仪单元180(即,壳182和组件184两者)大体上隐藏在设备150后面。另外,如也在图4中示出的,在设备150以描述的方式从结构110悬吊下来时,投影仪单元180(即,壳182和组件184两者)以及由此投影的任何图像大体上相对于设备150的中心线155对齐,或以中心线155为中心。
投影仪组件184通常被布置在壳182的腔183内,并且包括第一端或上端184a、与上端184a相对的第二端或下端184b。上端184a接近壳182的上端182a,而下端184b接近壳182的下端182b。投影仪组件184可包括任意合适的数字光投影仪组件,数字光投影仪组件用于从计算设备(例如,设备150)接收数据,并且投影与输入数据对应的一个图像或多个图像(例如,来自上端184a)。例如,在一些实现方式中,投影仪组件184包括数字光处理(DLP)投影仪或硅基液晶(LCoS)投影仪,它们是具有多个显示分辨率及大小(例如,标准XGA(1024×768)分辨率4:3长宽比或标准WXGA(1280×800)分辨率16:10长宽比)的有利的紧凑型且高效能的投影引擎。投影仪组件184进一步电联接至设备150,以接收来自设备150的数据,用于在运行期间从端184a产生光和图像。投影仪组件184可通过任意合适类型的电气联接电联接至设备150,而仍然符合本文公开的原理。例如,在一些实现方式中,组件184通过电导体、WI-FI、光连接、超声连接或它们一些的组合电联接至设备150。在此示例中,设备150通过布置在安装构件186内的电引线或导体(之前描述的)电联接至组件184,使得在设备150通过构件186从结构110悬吊下来时,布置在构件186内的电引线接触布置在设备150上的对应的引线或导体。
仍参照图3,顶部160进一步包括折叠镜162以及传感器束164。镜162包括沿顶部160的底表面160d布置的高反射表面162a,并且被定位以在运行期间反射从投影机组件184的上端184a向垫200投影的图像和/或光。镜162可包括任意合适类型的镜或反射面,而仍然符合本文公开的原理。在此示例中,折叠镜162包括标准的前表面真空镀铝涂层玻璃镜,其用作将从组件184发射的光向下折向垫200。在其他示例中,镜162可具有复杂的非球面曲率,以用作反射镜元件,从而提供附加的聚焦能力或光学校正。
传感器束164包括多个传感器和/或摄像头,以在运行期间测量和/或探测垫200上或附近产生的各种参数。例如,在图3中描绘的具体实现方式中,束164包括环境光传感器164a、摄像头(例如,可视RGB14.1百万像素高分辨率摄像头)164b、深度传感器或摄像头164c、以及三维(3D)用户界面传感器164d。环境光传感器164a被设置成测量***100周围的环境光的强度,以在一些实现方式中,调节摄像头和/或传感器(例如,传感器164a、164b、164c、164d)的曝光设置,和/或调节从整个***的其他源(例如,投影仪组件184、显示器152,等)发射的光的强度。在一些实例中,摄像头164b可包括彩色摄像头,其被设置成拍摄布置在垫200上的对象40(例如,文件、照片、书、2D对象、和/或3D对象)的静止图像或视频。例如,摄像头164b可以是可视14.1百万像素RBG摄像头。深度传感器164c通常指示3D对象何时在工作表面上。特别地,深度传感器164c可在运行期间检测或探测置于垫200上的对象(或对象的具体特征)的存在、形状、轮廓、运动、和/或3D深度。因此,在一些实现方式中,传感器164c可采用任意合适的传感器或摄像头设置,以检测和探测布置在传感器的视场(FOV)中的3D对象和/或每个像素的深度值(不管是红外的、彩色的、或其他的)。例如,在一些实现方式中,传感器164c可包括具有均匀的IR泛光灯的单个红外(IR)摄像头传感器,具有均匀的IR泛光灯的双红外(IR)摄像头传感器、结构化光深度传感器技术、飞行时间(TOF)深度传感器技术、或它们一些的组合。用户界面传感器164d包括用于追踪用户输入设备的任意合适的设备(例如,传感器或摄像头),用户输入设备例如,手、手写笔、定点装置,等等。在一些实现方式中,传感器164d包括一对摄像头,其被设置成当由用户关于垫200并且特别地关于垫200的表面202移动用户输入设备(例如,手写笔)时,实立体镜地(stereoscopically)追踪其位置。在其他示例中,传感器164d还可包括红外摄像头或传感器,或可替代地包括红外摄像头或传感器,红外摄像头或传感器被设置成探测由用户设备发射或反射的红外光。应进一步理解,束164可包括替代如前所述的传感器164a、164b、164c、164d的其他传感器或摄像头,和/或可包括除了传感器164a、164b、164c、164d之外的其他传感器或摄像头。另外,如将在下面更详细解释的,束164内的传感器164a、164b、164c、164d中的每一个传感器可电联接并且通信地联接至设备150,使得在运行期间,束164内生成的数据可传输至设备150,并且由设备150发布的命令可传达到传感器164a、164b、164c、164d。如上面针对***100的其他组件解释的,任意合适的电联接和/或通信联接可用于将传感器束164联接至设备150,例如,电导体、WI-FI、光学连接、超声连接、或它们一些的组合。在此示例中,如之前所述,电导体从束164、通过顶部160、直立构件140、以及投影仪单元180路由,并且通过布置在安装构件186中的引线进入设备150。
现在参照图5和图6,在***100运行期间,光187从投影仪组件184发射,并且从镜162朝向垫200反射,由此,在投影仪显示空间188上显示图像和/或用户界面。在此示例中,空间188大体上呈矩形,并且由长度L188和宽度W188限定。在一些示例中,长度L188可近似等于16英寸,而宽W188可近似等于12英寸;但是,应理解,可使用长度L188和宽度W188两者的其他值,而仍然符合本文公开的原理。另外,束164内的传感器(例如,传感器164a、164b、164c、164d)包括检测空间168,在至少一些示例中,其与投影仪显示空间188重叠和/或与投影仪显示空间188对应,如之前所述。空间168限定束164内的传感器设置成以之前描述的方式监控和/或检测其条件的区域。在一些示例中,空间188和空间168两者与垫200的表面202一致或与垫200的表面202对应,如之前所述,以有效地集成触摸敏感表面202、投影仪组件184以及限定的区域内的传感器束164的功能。
现在参照图5-图7,在一些示例中,设备150指导组件184将图像和/或用户界面投影到垫200的表面202上。另外,设备150还可在显示器152上显示图像和/或用户界面(这可与由组件184投影到表面202上的图像和/或用户界面一样或不一样)。由组件184投影的图像和/或用户界面可包括由设备150内执行的软件产生的信息和/或图像。用户(未示出)随后可通过物理地接合垫200的触摸敏感表面202,与表面202和显示器152上显示的图像和/或用户界面交互。这种交互可通过任意合适的方法进行,诸如与用户的手35直接交互、通过手写笔25或其他合适的用户输入设备直接交互。
如在图7中最佳的示出的,在用户与垫200的表面202交互时,生成信号,信号通过之前描述的任意电联接方法和设备发送到设备150。一旦设备150接收到垫200内生成的信号,它就通过内部导体路径153发送到与非瞬态计算机可读存储器件260通信的处理器250,以生成输出信号,随后,输出信号发送回投影仪组件184和/或显示器152,以分别实现投影到表面202上的图像和/或用户界面、和/或显示器152上显示的图像和/或用户界面中的变化。还应理解,处理器250可以是以下器件中的至少一个:中央处理单元(CPU)、基于半导体的微处理器、图形处理单元(GPU)、微控制器、或被配置成提取、解码和/或执行从非瞬态计算机存储器件260获取的指令的另一处理器件。还应理解,非瞬态计算机可读存储器件260可与存储机器可读指令的任意典型的存储器件对应,诸如程序代码、软件、固件之类。例如,非瞬态计算机可读存储器件260可包括非易失性存储器、易失性存储器和/或存储器件中的一个或多个。非易失性存储器的示例包括但不限于:电可擦除可编程只读存储器(EEPROM)以及只读存储器(ROM)。易失性存储器的示例包括但不限于:静态随机存取存储器(SRAM)以及动态随机存取存储器(DRAM)。存储器件的示例包括但不限于:硬盘驱动器、光盘驱动器、数字式多功能磁盘驱动器、光学设备、以及闪存器件。在一些实现方式中,指令可以是可由处理器250执行的安装包的一部分。在这种情况下,非瞬态计算机可读存储器件260可以是便携式介质,诸如CD、DVD、或由可从其下载并安装安装包的服务器维护的闪存盘或存储器。在另一实现方式中,指令可以是应用或已安装的应用的部分。这里,非瞬态计算机可读存储器件260可包括集成的存储器(诸如硬盘)。此外,在一些示例中,处理器250与计算机可读存储器件260集成在,而在其他示例中,处理器250和计算机可读存储器件260是分立组件。
在一个示例中,根据本公开的各方面,用户可切换触摸输入关联(touchinputassociation),使得指向垫200的触摸输入可以与由投影仪组件184投影到垫200上的水平用户界面关联,或可替代地,可与竖直显示器152(其中,竖直显示器可以是或可以不是触摸敏感的)上显示的用户界面关联。更具体地,并且参照图7,可由包括处理器250和计算机可读存储设备260的触摸协调模块290接收触摸输入修改请求。响应于接收到触摸输入修改请求,触摸协调模块290可将触摸输入关联从水平触摸敏感垫200改变成竖直显示器152,使得水平触摸敏感垫200上的触摸输入控制竖直显示器152上显示的第一界面而不是投影到垫200上的第二界面。此后,响应于接收到另一触摸输入修改请求,触摸协调模块290可将触摸输入关联从竖直显示器152恢复成水平触摸敏感垫200,使得水平触摸敏感垫200上的触摸输入控制投影到垫200上的第二界面而不是竖直显示器152上显示的第一界面。
应理解,虽然图7将触摸协调模块290描绘为仅包括处理器250和计算机可读存储器件260,但是在各种示例中,触摸协调模块290包括其他或可替代的组件。例如,触摸协调模块290可包括功能等效电路,像模拟电路、数字信号处理设备器件、专用集成电路(ASIC)、或被设置成实施与上述处理器250和计算机可读存储器件260同一功能的其他逻辑器件。
现在返回图8,此图根据示例描绘用于修改触摸输入分配的示例过程流程图800。应显而易见的,图8中描绘的过程表示概括说明,并且可增加其他过程,或者可移除、修改、或重设现有的过程,而不脱离本公开的范围和精神。此外,应理解,过程可表示存储在存储器上的可执行指令,其可使投影式计算***100响应、实施操作、改变状态、和/或作出决策。因此,描述的过程可实现为可执行指令和/或由与***100关联的存储器260提供的操作。可替代地或另外,过程可表示由功能等效电路实施的功能和/或操作,功能等效电路像模拟电路、数字信号处理器件电路、专用集成电路(ASIC)、或与***100关联的其他逻辑器件。此外,图8不意在限制所描述的实现方式的实现,而是相反地,该图图示本领域的技术人员能够用来设计/制造电路、生成软件、或使用硬件和软件的组合以实施该图示的功能信息。
过程800可始于框810,在框810,在竖直显示器152上显示第一界面。如上所述的,竖直显示器可以是或可以不是触摸敏感的。在框820处,第二界面投影到水平触摸敏感垫200上。如所讨论的,投影仪组件184将此用户界面向上投影,并且其由镜向下反射回垫200。在框830处,接收触摸输入修改请求。可在触摸协调模块290接收此请求,并且此请求可由用户姿态、按钮按下、口头命令、或其他用户输入触发。例如,在一个实现方式中,3D传感器164d或另一传感器可探测用户的特定姿态(例如,手/手指移动),并且这可触发触摸输入修改请求。此姿态可在垫上或上方发生,并且可在区域202内或外发生。在另一示例实现方式中,输入修改请求可由***100上的按钮的按下/触摸触发。例如,按钮可位于基部120或***的另一部分上,并且用户可按下/触摸此按钮,以触发触摸修改请求,并且由此,切换触摸输入分配。此切换可发生而不需要用户关闭、注销和/或重启,并且因此,为用户提供友好且无缝的体验。另外,切换可自动发生,并且不需要例如按下/触摸按钮或实施预定的切换姿态之后的其他用户交互。
此后,在框840处,在接收到触摸输入修改请求之后,触摸协调模块290使触摸输入关联从水平触摸敏感垫200改变成竖直显示器152,使得水平触摸敏感垫200上的触摸输入控制竖直显示器152上显示的第一界面。这可例如通过更新将界面/显示器与触摸输入关联的寄存器值来实现此。这些寄存器可由例如操作***(OS)来读取,以协调触摸输入、用户界面控制和/或显示的信息。
除了上述之外,触摸分配可响应于接收到另一触摸输入修改请求而恢复。例如并且继续上面的示例,响应于接收到另一触摸输入修改请求,触摸协调模块290可将触摸输入关联从竖直显示器152改变成水平触摸敏感垫200,使得水平触摸敏感垫上的触摸输入控制投影到水平触摸敏感垫上的第二界面。如上所述,这可例如通过更新将界面/显示器与触摸输入关联的寄存器值来实现,并且进一步可自动进行,而不需要用户关闭、注销、和/或重启***100。
另外,为了在垫200用作触摸输入时,帮助用户理解其手指/手写笔相对于竖直显示器152的位置,在输入设备(例如,手指、手写笔等)触摸或接近水平触摸敏感垫时,根据本公开的示例导致将在竖直显示器152上示出标记(例如,光标、点,等等)。因此,如图9中示出的,在用户的手指910或手写笔触摸和/或接近垫200(例如,在诸如1英寸的阈值距离内)时,将在竖直显示器152上示出标记920,以提供相对于竖直显示器152定位在垫200上的手指/手写笔的目标。在示例中,用户的手指和/或手写笔的位置由3D传感器164d或***100的另一传感器探测。此外,在示例中,标记是光标、点、星、或其他符号。
此外,图10中描绘的其他示例中,为了帮助用户相对于竖直显示器152参照其在水平垫200上的位置,在水平触摸敏感垫上的触摸输入控制显示在竖直显示器上的第一界面时,第一界面1010的副本/克隆可投影到水平触摸敏感垫200的全部或部分上。因此,用户可利用投影的副本/克隆第一界面来更容易地控制竖直显示器152上显示的实际的第一用户界面1020。应理解,虽然图10中将克隆/副本第一界面示出为包围整个触摸垫200,但在一些示例中,仅触摸垫200的部分用于克隆显示。例如,副本/克隆第一界面可以是投影在触摸垫200的右上象限中的“缩略图”,并且触摸垫的其余部分可显示第二界面。根据实现方式,这种设置可以是用户可配置的,或默认设置的。此外,在一些示例中,由于水平触摸垫和竖直显示器上投影的显示器之间的长宽比不同,因此基于长宽比,可进行处理以改变图像,从而提供最佳显示。
通过所描述的方式,投影式计算机***100包括触摸敏感的或非触摸敏感的竖直显示器(例如,AiO计算机或显示器)以显示第一界面、通信地联接至竖直显示器的水平触摸敏感垫、以及将第二界面投影到水平触摸敏感垫上的投影仪组件。此外,***100包括触摸协调模块,以接收触摸输入修改请求,以及响应于接收到触摸输入修改请求,将触摸输入关联从水平触摸敏感垫改变成竖直显示器,使得水平触摸敏感垫上的触摸输入控制竖直显示器上显示的第一界面。除此之外,此架构为用户提供直观的方式来改变触摸关联,使得其是更符合人体工程学的输入方法,并且通过减少对具有包括在水平和竖直表面中的触摸组件的需要而进一步减少制造成本。也就是说,竖直显示器可以是非触摸敏感的,但通过将触摸关联从水平触摸垫切换成非触摸敏感的显示器而具有这种能力。
虽然已将设备150描述为一体机,但应理解,在其他示例中,设备150可进一步采用更传统的用户输入设备的使用,更传统的用户输入设备例如键盘和鼠标。另外,虽然束164内的传感器164a、164b、164c、164d每个表示单个传感器或摄像头,但应理解,传感器164a、164b、164c、164d中的每一个可每个包括多个传感器和摄像头,而仍然符合本文描述的原理。此外,虽然顶部160在本文中已描述为悬臂式顶部,但应理解,在其他示例中,顶部160可支撑于超过一个点处,并且因此,可以不是悬臂式的,而仍然符合本文公开的原理。
上面的讨论表示本公开的原理和各种实施例的说明。一旦充分理解上面的公开,许多变形和修改对本领域的技术人员就将是显而易见的。目的在于:下面的权利要求被解释为包含所有这些变形和修改。
Claims (15)
1.一种投影式计算***,包括:
竖直一体机,用于显示第一界面;
通信地联接至所述竖直一体机的水平触摸敏感垫;
投影仪组件,用于将第二界面投影到所述水平触摸敏感垫上;以及
触摸协调模块,用于:
接收触摸输入修改请求,并且
响应于所述触摸输入修改请求的接收,自动地且不需要进一步输入地将触摸输入关联从所述水平触摸敏感垫改变成所述竖直一体机,使得所述水平触摸敏感垫上的触摸输入控制所述竖直一体机上显示的所述第一界面。
2.根据权利要求1所述的投影式计算***,其中所述触摸输入修改请求由触摸输入切换按钮的按下来触发。
3.根据权利要求1所述的投影式计算***,其中所述触摸输入修改请求由姿态触发。
4.根据权利要求3所述的投影式计算***,其中所述姿态通过3D传感器探测。
5.根据权利要求1所述的投影式计算***,其中所述触摸协调模块进一步用于:响应于另一触摸输入修改请求的接收,将所述触摸输入关联从竖直一体机改变成所述水平触摸敏感垫,使得所述水平触摸敏感垫上的触摸输入控制投影到所述水平触摸敏感垫上的所述第二界面。
6.根据权利要求1所述的投影式计算***,其中所述触摸协调模块进一步用于:在输入设备触摸或接近所述水平触摸敏感垫时,导致将在所述竖直一体机上示出标记。
7.根据权利要求6所述的投影式计算***,其中所述输入设备是手指或手写笔,并且其中所述手指或所述手写笔的位置通过3D传感器探测。
8.根据权利要求1所述的投影式计算***,其中在所述水平触摸敏感垫上的所述触摸输入控制所述竖直一体机上显示的所述第一界面的同时,所述第一界面的副本投影到所述水平触摸敏感垫的全部或部分上。
9.根据权利要求1所述的投影式计算***,其中所述竖直一体机显示器不是触摸敏感的。
10.根据权利要求1所述的投影式计算***,其中所述竖直一体机显示器是触摸敏感的。
11.一种修改投影式计算***中的触摸输入的方法,包括:
在非触摸敏感的竖直显示器上显示第一界面;
将第二界面投影到水平触摸敏感垫上;
接收触摸输入修改请求;以及
将触摸输入关联从所述水平触摸敏感垫改变成所述非触摸敏感的竖直显示器,使得所述水平触摸敏感垫上的触摸输入控制所述非触摸敏感的竖直显示器上显示的所述第一界面。
12.根据权利要求11所述的方法,进一步包括:
接收另一触摸输入修改请求;并且
将所述触摸输入关联从所述非触摸敏感的竖直显示器改变成所述水平触摸敏感垫,使得所述水平触摸敏感垫上的触摸输入控制投影到所述水平触摸敏感垫上的所述第二界面。
13.根据权利要求11所述的方法,进一步包括:
在输入设备触摸或接近所述水平触摸敏感垫时,在所述非触摸敏感的竖直显示器上显示标记。
14.根据权利要求11所述的方法,进一步包括:
在所述水平触摸敏感垫上的触摸输入控制所述非触摸敏感的竖直显示器上显示的所述第一界面的同时,将所述第一界面的副本投影到所述水平触摸敏感垫的全部或部分上。
15.一种包括指令的非瞬态计算机可读存储器件,所述指令在被执行时,导致投影式计算***:
接收触摸输入修改请求;
将触摸输入关联从水平触摸敏感垫改变成非触摸敏感的竖直显示器,使得所述水平触摸敏感垫上的触摸输入控制所述非触摸敏感的竖直显示器上显示的第一界面;
接收另一触摸输入修改请求;并且
将所述触摸输入关联从所述非触摸敏感的竖直显示器改变成所述水平触摸敏感垫,使得所述水平触摸敏感垫上的触摸输入控制投影到所述水平触摸敏感垫上的第二界面。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2013/057549 WO2015030795A1 (en) | 2013-08-30 | 2013-08-30 | Touch input association |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105492990A true CN105492990A (zh) | 2016-04-13 |
CN105492990B CN105492990B (zh) | 2020-03-13 |
Family
ID=52587142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380079241.3A Expired - Fee Related CN105492990B (zh) | 2013-08-30 | 2013-08-30 | 一种实现触摸输入关联的***、方法以及器件 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10168897B2 (zh) |
EP (1) | EP3039515B1 (zh) |
CN (1) | CN105492990B (zh) |
TW (2) | TWI588736B (zh) |
WO (1) | WO2015030795A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106178546A (zh) * | 2016-09-25 | 2016-12-07 | 依云智酷(北京)科技有限公司 | 一种投影触控的智能玩具 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103838376B (zh) * | 2014-03-03 | 2016-09-28 | 深圳超多维光电子有限公司 | 立体交互方法和立体交互*** |
US11275498B2 (en) * | 2016-08-31 | 2022-03-15 | Sony Corporation | Information processing system, information processing method, and program |
CN108509138B (zh) * | 2017-02-27 | 2020-08-07 | 华为技术有限公司 | 一种任务栏按钮显示的方法及其终端 |
US20220179516A1 (en) * | 2019-07-23 | 2022-06-09 | Hewlett-Packard Development Company, L.P. | Collaborative displays |
TWI773957B (zh) * | 2020-01-10 | 2022-08-11 | 建碁股份有限公司 | 互動式多媒體資訊設備 |
US20220360755A1 (en) * | 2020-10-23 | 2022-11-10 | Ji Shen | Interactive display with integrated camera for capturing audio and visual information |
US20230113359A1 (en) * | 2020-10-23 | 2023-04-13 | Pathway Innovations And Technologies, Inc. | Full color spectrum blending and digital color filtering for transparent display screens |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0626636A2 (en) * | 1993-03-16 | 1994-11-30 | Hitachi, Ltd. | Information processing system |
WO2001059975A2 (en) * | 2000-02-11 | 2001-08-16 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
WO2003054683A2 (en) * | 2001-12-07 | 2003-07-03 | Canesta Inc. | User interface for electronic devices |
TW201243646A (en) * | 2010-12-24 | 2012-11-01 | Intel Corp | Projection interface techniques |
CN102985896A (zh) * | 2010-07-16 | 2013-03-20 | 高通股份有限公司 | 用于与投影用户接***互的方法和*** |
US20130141331A1 (en) * | 2011-12-02 | 2013-06-06 | Htc Corporation | Method for performing wireless display control, and associated apparatus and associated computer program product |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003344086A (ja) | 2002-05-28 | 2003-12-03 | Pioneer Electronic Corp | タッチパネル装置及び自動車用表示入力装置 |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7203384B2 (en) | 2003-02-24 | 2007-04-10 | Electronic Scripting Products, Inc. | Implement for optically inferring information from a planar jotting surface |
US20050078092A1 (en) | 2003-10-08 | 2005-04-14 | Clapper Edward O. | Whiteboard desk projection display |
US7110100B2 (en) | 2003-11-04 | 2006-09-19 | Electronic Scripting Products, Inc. | Apparatus and method for determining an inclination of an elongate object contacting a plane surface |
US7038846B2 (en) | 2003-11-24 | 2006-05-02 | Electronic Scripting Products, Inc. | Solid catadioptric lens with a single viewpoint |
US7268956B2 (en) | 2003-11-24 | 2007-09-11 | Electronic Scripting Products, Inc. | Solid catadioptric lens with two viewpoints |
US7088440B2 (en) | 2003-12-22 | 2006-08-08 | Electronic Scripting Products, Inc. | Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features |
US8542219B2 (en) | 2004-01-30 | 2013-09-24 | Electronic Scripting Products, Inc. | Processing pose data derived from the pose of an elongate object |
US7826641B2 (en) | 2004-01-30 | 2010-11-02 | Electronic Scripting Products, Inc. | Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features |
US9229540B2 (en) | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
US7729515B2 (en) | 2006-03-08 | 2010-06-01 | Electronic Scripting Products, Inc. | Optical navigation apparatus using fixed beacons and a centroid sensing device |
US7023536B2 (en) | 2004-03-08 | 2006-04-04 | Electronic Scripting Products, Inc. | Apparatus and method for determining orientation parameters of an elongate object |
US7161664B2 (en) | 2004-04-13 | 2007-01-09 | Electronic Scripting Products, Inc. | Apparatus and method for optical determination of intermediate distances |
US7113270B2 (en) | 2004-06-18 | 2006-09-26 | Electronics Scripting Products, Inc. | Determination of an orientation parameter of an elongate object with a scan beam apparatus |
US7599561B2 (en) | 2006-02-28 | 2009-10-06 | Microsoft Corporation | Compact interactive tabletop with projection-vision |
TW200743010A (en) | 2006-05-10 | 2007-11-16 | Compal Communications Inc | Portable communication device with a projection function and control method thereof |
US20080018591A1 (en) | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
US8199117B2 (en) | 2007-05-09 | 2012-06-12 | Microsoft Corporation | Archive for physical and digital objects |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
KR101020029B1 (ko) | 2008-07-02 | 2011-03-09 | 삼성전자주식회사 | 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서터치를 이용한 키 입력 방법 |
US8121640B2 (en) | 2009-03-19 | 2012-02-21 | Microsoft Corporation | Dual module portable devices |
KR100987461B1 (ko) | 2009-09-21 | 2010-10-13 | 동국대학교 산학협력단 | 터치스크린 인터페이스 생성 시스템 및 방법 |
US20110163944A1 (en) * | 2010-01-05 | 2011-07-07 | Apple Inc. | Intuitive, gesture-based communications with physics metaphors |
TWI423096B (zh) | 2010-04-01 | 2014-01-11 | Compal Communication Inc | 具可觸控投影畫面之投影系統 |
TWI405106B (zh) | 2010-04-23 | 2013-08-11 | Wen Jong Wu | 互動式多點觸控電腦系統及控制方法 |
US9569164B2 (en) * | 2011-03-14 | 2017-02-14 | Lenovo (Singapore) Pte. Ltd. | Central display with private secondary displays |
US8736583B2 (en) | 2011-03-29 | 2014-05-27 | Intel Corporation | Virtual links between different displays to present a single virtual object |
US9152373B2 (en) | 2011-04-12 | 2015-10-06 | Apple Inc. | Gesture visualization and sharing between electronic devices and remote displays |
US20120319989A1 (en) | 2011-06-20 | 2012-12-20 | Chris Argiro | Video-game controller assemblies designed for progressive control of actionable-objects displayed on touchscreens: expanding the method and breadth of touch-input delivery |
US20130044075A1 (en) | 2011-08-19 | 2013-02-21 | Korry Electronics Co. | Reconfigurable fixed function, nbc compatible integrated display and switch system |
EP2565751A1 (en) | 2011-08-31 | 2013-03-06 | Z124 | Multi-screen display control |
US9182935B2 (en) | 2011-09-27 | 2015-11-10 | Z124 | Secondary single screen mode activation through menu option |
JP5137150B1 (ja) * | 2012-02-23 | 2013-02-06 | 株式会社ワコム | 手書き情報入力装置及び手書き情報入力装置を備えた携帯電子機器 |
US8970709B2 (en) | 2013-03-13 | 2015-03-03 | Electronic Scripting Products, Inc. | Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty |
-
2013
- 2013-08-30 EP EP13892742.1A patent/EP3039515B1/en active Active
- 2013-08-30 WO PCT/US2013/057549 patent/WO2015030795A1/en active Application Filing
- 2013-08-30 CN CN201380079241.3A patent/CN105492990B/zh not_active Expired - Fee Related
- 2013-08-30 US US14/914,956 patent/US10168897B2/en not_active Expired - Fee Related
-
2014
- 2014-07-29 TW TW105103546A patent/TWI588736B/zh not_active IP Right Cessation
- 2014-07-29 TW TW103125844A patent/TWI530863B/zh not_active IP Right Cessation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0626636A2 (en) * | 1993-03-16 | 1994-11-30 | Hitachi, Ltd. | Information processing system |
WO2001059975A2 (en) * | 2000-02-11 | 2001-08-16 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
WO2003054683A2 (en) * | 2001-12-07 | 2003-07-03 | Canesta Inc. | User interface for electronic devices |
CN102985896A (zh) * | 2010-07-16 | 2013-03-20 | 高通股份有限公司 | 用于与投影用户接***互的方法和*** |
TW201243646A (en) * | 2010-12-24 | 2012-11-01 | Intel Corp | Projection interface techniques |
US20130141331A1 (en) * | 2011-12-02 | 2013-06-06 | Htc Corporation | Method for performing wireless display control, and associated apparatus and associated computer program product |
CN103197906A (zh) * | 2011-12-02 | 2013-07-10 | 宏达国际电子股份有限公司 | 用以执行无线显示控制的方法与装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106178546A (zh) * | 2016-09-25 | 2016-12-07 | 依云智酷(北京)科技有限公司 | 一种投影触控的智能玩具 |
Also Published As
Publication number | Publication date |
---|---|
EP3039515B1 (en) | 2020-02-19 |
TWI530863B (zh) | 2016-04-21 |
TWI588736B (zh) | 2017-06-21 |
WO2015030795A1 (en) | 2015-03-05 |
EP3039515A4 (en) | 2017-04-05 |
EP3039515A1 (en) | 2016-07-06 |
US20160210039A1 (en) | 2016-07-21 |
TW201631463A (zh) | 2016-09-01 |
US10168897B2 (en) | 2019-01-01 |
TW201519074A (zh) | 2015-05-16 |
CN105492990B (zh) | 2020-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105492990A (zh) | 触摸输入关联 | |
US10241616B2 (en) | Calibration of sensors and projector | |
US10379680B2 (en) | Displaying an object indicator | |
US9454260B2 (en) | System and method for enabling multi-display input | |
US10268277B2 (en) | Gesture based manipulation of three-dimensional images | |
US10114512B2 (en) | Projection system manager | |
CN105683866B (zh) | 投影计算*** | |
US10649584B2 (en) | Process image according to mat characteristic | |
US10481733B2 (en) | Transforming received touch input | |
TWI592862B (zh) | 利用光學圖案追蹤表面上的手持式裝置 | |
US20120062477A1 (en) | Virtual touch control apparatus and method thereof | |
US20170357373A1 (en) | Unintended touch rejection | |
TW201621554A (zh) | 物件影像之捕捉及投影技術 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200313 |