CN103221912A - 输入命令 - Google Patents

输入命令 Download PDF

Info

Publication number
CN103221912A
CN103221912A CN2010800695176A CN201080069517A CN103221912A CN 103221912 A CN103221912 A CN 103221912A CN 2010800695176 A CN2010800695176 A CN 2010800695176A CN 201080069517 A CN201080069517 A CN 201080069517A CN 103221912 A CN103221912 A CN 103221912A
Authority
CN
China
Prior art keywords
pattern
sensor
identification
program
input system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2010800695176A
Other languages
English (en)
Inventor
R·坎贝尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of CN103221912A publication Critical patent/CN103221912A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

实施例提供了将命令输入***。该方法包括检测放置在传感器视野内的图案。该图案可以被识别并与操作代码序列相关联。当传感器检测到所述识别的图案与物体之间的相交时,可以执行操作代码序列。

Description

输入命令
背景技术
用于将命令输入到程序中的早期***使用键盘来输入包括命令名称、任意输入参数的文本串并使用任何开关来修改命令的操作。在过去的几十年里,这些***已几乎被图形输入***所取代,所述图形输入***使用定点设备来移动诸如箭头的图形表示之类的图标来指向屏幕上显示的对象,以及然后,对其进行选择用于进一步的操作。例如通过将该图标设置在对象之上并点击定点设备上的按钮可以执行该选择。近年来,已经开发出对物理现实进行更加强大地仿真的用于输入命令的***,例如,允许对触敏屏幕上的项目进行物理选择。
附图说明
某些示例性实施例在以下详细描述中并参考了附图进行描述,其中:
图1为根据实施例的***的示图;
图2为可用于实现实施例的***的框图;
图3为根据实施例的命令模板的示图;
图4是根据实施例的模板的示例;
图5是根据实施例的用于将命令输入***的方法;
图6是根据实施例的可用于输入命令到***的方法;以及
图7是根据些实施例的非临时计算机可读介质,该介质可用于保存被配置成指示处理器来输入命令的代码模块。
具体实施方式
在此描述的实施例提供了一种可以使用光学传感***来输入选自模板的命令的光学命令输入***。该光学传感***可以被配置成监视显示器前的三维空间来确定物体相对于显示器的位置。图案识别模块可以监视通过光学传感***收集的显示器前面的区域的图像。如果具有印刷图案的模板被置于传感器视野内,图案识别模块可识别所述图案,绘制其位置,并将其与诸如用于应用的特定命令相关联。命令模块可确定所述显示器前的物体的位置,所述物体例如手指、手或其它物体,并且,如果所述物体的位置与所述图案之一相交(intersect),那么与该图案相关联的命令可以被传送到应用。在一些实施例中,如果所述图案之一与特定的应用相关联,那么将模板放置在显示器的前面可以使图案识别模块启动相关联的应用。
图1是根据实施例的***100的示图,例如,能够获得来自一个或多个传感器102的控制输入的一体化计算机***。正如本文所使用的,一体化计算机***是在单独的机箱内包括显示器、处理器、存储器、驱动器、和其它功能单元的计算机。然而,实施例不限于一体化计算机***,例如实施例可以包括具有传感器的独立监视器,或者附接有单独的传感器的独立监视器。传感器102可以被构造入***100的机箱104内,或者可以被附接为独立单元。在实施例中,传感器102可以被定位于显示器106的每个上角。在该实施例中,每个传感器102可以覆盖显示器106前面的三维空间的重叠的体积(volume)108。
传感器102可以包括运动传感器、红外传感器、摄像机、红外摄像机、或任何其他能够捕获图像的设备。在实施例中,传感器102可以包括红外阵列或摄像机,其使用对红外阵列中的每个像素进行的飞行时间计算来感测目标的位置。在该实施例中,红外发射器能够发射红外光脉冲,其被从目标反射,并返回到红外阵列。与所述红外阵列相关联的计算***使用红外光到达目标并被反射回红外传感器阵列所花费的时间来产生距离图,从而为红外传感器阵列的每个像素指示从传感器到目标的距离。所述红外阵列还可以产生原始红外图像,其中每个像素的亮度表示目标图像在该像素处的红外反射率。然而,实施例不局限于红外传感器阵列,因为任意数量的产生图像的其它传感器都可用于一些实施例中。
由传感器102成像的体积108可以超出显示器106延伸到,例如可以支持***100、键盘112或鼠标114的表面110。模板116可以放置在传感器102视野中的***100前面的表面110上。***100可以被配置为记录模板116的存在,例如,通过识别模板上的图案118。例如,***可以识别出与特定程序相关联的标识图案120,尤其诸如绘图应用或计算机辅助绘图程序,或通过识别与单独的命令相关联的图案。图案识别可以通过本领域已知的任意数量的技术来实现,例如,从图案生成散列码,并将该散列码与代码库相比较。任意数量的其他技术也可以被使用。
***100可以以多种方式而响应识别出图案,例如,在模板116上的标识图案120。在一个实施例中,***100可以启动与所述标识图案120相关联的程序。***100可以针对可与特定功能相关联的其他图案对模板116进行分析,所述功能尤其是诸如保存122、撤销124、重复126或填充128。
***100可以允许使用手势与程序交互。例如,在程序中并在显示器106上示出的项目130,可以通过手势被选择,例如通过使用手指132触摸项目130在显示器106上的位置。进一步,标识在模板116上的功能可以通过例如使用手指132来触摸相关的图案128而被选择。触摸图案128可以触发与图案128相关联的操作代码序列,例如对先前选定的项目130填充颜色。任意数量的功能和/或形状可以与选定的项目、或打开的文件、操作***本身等进行关联使用,尤其是例如打印、保存、删除、或关闭程序。从传感器102的视野中移走模板116或其它图案可以触发例如询问用户关于关闭程序、保存文档等的动作。
图2是可用于实现实施例的***200的框图。***200可以由一体化计算机***202实现,或者可以使用模块化计算机***来实现。例如,在模块化***中,所述传感器可以内置于监视器,也可以被构造成安装在监视器的顶部表面之上,或者可以是靠近监视器放置的独立传感器。
在一体化计算机***202中,总线204可以提供处理器206和例如参考图1所描述的传感器102的传感***208之间的通信。总线204可以是PCI、PCIe、或任何其它合适的总线或通信技术。处理器206可以是单核处理器、多核处理器、或计算集群。处理器206可以通过总线204访问存储***210。存储***210可以包括非临时计算机可读介质的任何组合,包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘驱动器、光驱、RAM驱动器等。存储***210可以保存用来实现本技术的实施例的代码和数据结构,包括,例如,被配置成指示处理器206来操作传感***208的传感器操作模块212。图案识别模块214可包括用于指示处理器206从传感***208获得图案并将图案转换为可以识别该图案的数学表示的代码。图案识别模块214还可以包括保存例如已经被转换为数学表示的图案库的数据结构。命令输入模块216可以使用传感器操作模块212来确定模板上的命令是否已经被选择并且将适当的命令串传给应用218。
一体化计算机***202中通常还包括其他单元,以提供功能。例如,可以包括与键盘或定点设备交互的人机接口。在一些实施例中,定点设备和键盘中的一个或两个可以略去,取而代之使用传感***提供的功能,例如,使用屏幕上键盘或者被提供或被投影为模板的键盘。显示器220通常被内置于一体化计算机***202中。如本文所示,显示器220包括耦合到总线204的驱动电子装置,以及屏幕本身。可以存在的其它单元包括用于耦合一体化计算机到网络226的网络接口卡(NIC)。NIC可以包括以太网卡、无线网卡、移动宽带卡或其任意组合。
图3是根据实施例的可以用于对程序进行操作的命令模板300的示图。在此实施例中,没有特定的图案来识别供该模板使用的程序。作为替代,可以手动启动,或者可以通过全套图案的图案识别来自动触发应用,例如,它们可用于操作诸如WINDOWS MEDIA PLAYERREAL PLAYERiTUNES
Figure BPA00001718815600043
等的媒体播放器。所述图案可包括尤其用于播放302、停止304、倒回306、暂停308、音量增大310和音量减小312。应该认识到,所述控制并不限于这些按钮或这种布置中,因为可以使用任意数量的其它控制。这种附加的控制可以包括另外的图标或可以包括文本按钮,例如用于选择其它媒体的按钮314、或用于获得关于程序的信息的按钮316。模板300可以随***印刷和分发。可替换地,模板300可以被打印出来或由用户手绘,例如,针对使用红外传感器的计算机***,可以使用例如激光打印机或石墨铅笔中的调色剂之类的红外吸收材料来创建图案。也可以如参考图4中所讨论的那样,由软件公司随程序提供模板。
图4是根据实施例的可以随商业程序提供的模板400的示例。正如前面讨论的,模板400可具有能够识别程序的程序图案402。将该模板400放置在传感器102(图1)的视野内可导致自动激活相关联的程序。可替换地,用户可以手动激活程序。
模板400上的命令图案404可以被识别并与相关联的程序的命令相关联。例如,命令图案404可以包括诸如保存406、打开408、画线410等之类的命令。诸如通过触摸模板上的命令图案404来选择命令,可以用于激活相关联的命令,例如,通常遵循图5所示的方法。
图5是根据本技术的实施例的用于将命令输入到***中的方法500。所述***可以是参考图1和2所讨论的***。当***检测到模板或图案存在时,方法500开始于块502。可以根据识别存在于成像传感器的视野中的图案来进行检测。图案可绘制或者印刷在模板上,但不限于任何特定的实现方式。实际上,所述图案可以手绘在***前方的桌面上,只要计算机可将形状识别为标识程序或命令。
在块504处,模板上的图案可以例如通过比较从图案产生的散列码和为各种图案存储的代码库而被识别。在块506处,一旦识别到图案,其就可以被关联到诸如用于程序的命令之类的操作代码序列。该程序可以由用户手动选择,或者可以由模板上的图案自动选择。此外,根据所选择的程序,相同的图案可以与不同命令相关联。例如,参考图3所讨论的播放302和倒回306图案在电视调谐器应用中可分别与频道上调和频道下调相关联。如果用户将选择不同的程序,那么图案也可自动与正确的命令相关联,例如用于当前被选择用于显示的程序。
图6是根据实施例的可用于输入命令到计算机***的方法600。方法600开始于块602,其中计算机***检测模板。所述检测可以寻找存在于图案库中的所有图案或可以寻找标识特定程序的图案。后一种情况可以用于在存在大量图案时,降低***的计算成本。如果在块604处识别到存在模板,流程进行至块606,在此图案被识别并与相关的命令相关联。在块608处,与模板上图案相关联的程序可以被自动加载。然而,实施例不限于程序的自动加载。在一些实施例中,用户可以手动地选择供模板使用的程序。
在将图案关联至已加载的程序的命令后,在块610处,计算机***可以识别出对应于用户动作的输入。该输入可以包括用户用手指或其它物体触摸模板上的图案。例如,计算机***中的检测***可以在屏幕前方三维空间中确定物体的位置。当物体与诸如模板上的图案之类的命令位置相交时,检测***可以通过操作***向程序发送命令。在一些实施例中,该物体可以包括激活特定命令或代码模块的三维形状,所述特定命令或代码模块与所选形状和位置相关。
这种形状的示例可以是代表打印机的锥形物体。如果打印机形状被触摸到所述模板上的图案,则可以使用由该形状控制的参数来执行相关联的命令。这种形状也可以代表诸如可操作的选择之类的程序参数。例如,触摸第一形状到模板上的图案可启动打印物体的代码模块,而触摸第二形状到模板上的图案可启动保存当前文件的代码模块。其它形状可以激活修改所述物体、或者把表示所述物体的数据传送到另一个***或位置的代码模块。
如果在块612处已经选择了模板图案,则过程流前进到块614,在这里相关联的命令可以被输入到程序中。在块616处,***可以确定模板是否已经从扫描区域移走。如果没有,过程流可以返回到块610以继续寻找用户输入。当计算机***特别地寻找与存在的模板相关的输入时,它可以检测该成像传感器视野内另一个模板的放置,例如,通过并行地继续执行块602。
如果在块616处确定模板不再处于计算机***前面的成像体积中,则过程流可以前进到块618,在此***可以执行一系列动作以关闭程序。然而,实施例不限于自动关闭程序,因为用户可在任何时间手动关闭程序。在实施例中,除了消除使用模板对相关联的命令的选择之外,移走该模板可能没有影响。***也可以采取其它动作以关闭程序,例如在程序中保存文件或提示用户保存文件。图7是根据一些实施例可用于保存被配置成指示处理器702来输入命令的代码模块的非临时计算机可读介质700。处理器702可以包括单核处理器、多核处理器、或计算集群。处理器702可以通过总线704访问非临时计算机可读介质700,总线704包括例如PCI总线、PCIe总线、以太网连接或任意数量的其它通信技术。如本文所描述的,所述代码模块可以包括被配置成指示处理器检测放置于传感器视野内的图案的图案检测模块706。图案识别模块708可以识别图案,并且,在一些实施例中,启动相关联的程序。图案关联模块710可识别传感器视野内的图案并将图案与诸如命令之类的特定操作代码序列相关联。命令输入模块712可以检测诸如手或其它三维形状之类的物体与图案的相交(intersection),并向程序输入相关联的命令。

Claims (15)

1.一种用于将命令输入***的方法,包括:
检测放置在传感器视野内的图案;
识别该图案;
将所述识别的图案与操作代码序列相关联;以及
至少部分地基于所述识别的图案和传感器检测到的物体的相交执行所述操作代码序列。
2.权利要求1所述的方法,其中检测图案包括分析从所述传感器获得的图像。
3.权利要求2所述的方法,包括至少部分地基于与所述识别的图案相接触的物体的形状来改变提供给该操作代码序列的参数。
4.权利要求3所述的方法,其中所述参数可以确定操作代码序列所采取的动作。
5.权利要求1所述的方法,包括:当检测到与程序相关联的图案时激活程序。
6.权利要求1所述的方法,包括:
检测所述识别的图案何时从所述***的视野中移走,以及
执行动作来关闭程序。
7.一种命令输入***,包括:
处理器;
显示器;
传感器,被配置为从体积获得输入;
命令模块,被配置为指示所述处理器:
至少部分地基于由图案识别模块在体积中识别的图像来识别命令;以及
至少部分地基于该图案和传感器检测到的物体的相交来确定命令是否已被选择。
8.权利要求7所述的命令输入***,包括具有多个图案的模板。
9.权利要求8所述的命令输入***,其中所述多个图案中的标识图案与多个应用中的一个相关联,以及当该图案识别模块识别出所述标识图案时,所述命令模块启动所述多个程序中相关联的一个程序。
10.权利要求7所述的命令输入***,包括一体化计算机***。
11.权利要求8所述的命令输入***,其中所述多个图案是用红外吸收材料印刷的。
12.权利要求7所述的命令输入***,其中所述物体表示可以由程序采取的动作。
13.权利要求7所述的命令输入***,包括具有相关联的传感器的独立监视器。
14.一种非临时计算机可读介质,包括代码,所述代码被配置成指示处理器:
检测放置在传感器视野内的图案;
识别该图案;
将识别的图案与操作代码序列相关联;以及
至少部分地基于所述识别的图案与传感器检测到的物体的相交来执行该操作代码序列。
15.权利要求14所述的非临时计算机可读介质,包括代码,所述代码被配置成指示处理器分析从所述传感器获得的图像。
CN2010800695176A 2010-10-05 2010-10-05 输入命令 Pending CN103221912A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2010/051487 WO2012047206A1 (en) 2010-10-05 2010-10-05 Entering a command

Publications (1)

Publication Number Publication Date
CN103221912A true CN103221912A (zh) 2013-07-24

Family

ID=45927996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010800695176A Pending CN103221912A (zh) 2010-10-05 2010-10-05 输入命令

Country Status (6)

Country Link
US (1) US20130187893A1 (zh)
CN (1) CN103221912A (zh)
DE (1) DE112010005854T5 (zh)
GB (1) GB2498485A (zh)
TW (1) TWI595429B (zh)
WO (1) WO2012047206A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106662936A (zh) * 2014-05-30 2017-05-10 惠普发展公司,有限责任合伙企业 显示器上的位置输入

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109876A (ja) * 2012-11-30 2014-06-12 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
US20170351336A1 (en) * 2016-06-07 2017-12-07 Stmicroelectronics, Inc. Time of flight based gesture control devices, systems and methods

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US20060171588A1 (en) * 2005-01-28 2006-08-03 Microsoft Corporation Scalable hash-based character recognition
CN1913545A (zh) * 2005-08-11 2007-02-14 三星电子株式会社 移动通信终端的用户输入方法和装置
CN1918532A (zh) * 2003-12-09 2007-02-21 雷阿卡特瑞克斯***公司 自容交互式视频显示***
EP1818757A1 (en) * 2006-02-13 2007-08-15 Research In Motion Limited Power saving system for a handheld communication device having a reduced alphabetic keyboard
EP2107414A1 (en) * 2008-03-31 2009-10-07 Brother Kogyo Kabushiki Kaisha Head mount display and head mount display system
CN101589425A (zh) * 2006-02-16 2009-11-25 Ftk技术有限公司 将数据输入计算***的***和方法
WO2010042880A2 (en) * 2008-10-10 2010-04-15 Neoflect, Inc. Mobile computing device with a virtual keyboard

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW430774B (en) * 1996-11-26 2001-04-21 Sony Corp Information input method and apparatus
US5909211A (en) * 1997-03-25 1999-06-01 International Business Machines Corporation Touch pad overlay driven computer system
US6104604A (en) * 1998-01-06 2000-08-15 Gateway 2000, Inc. Modular keyboard
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7173605B2 (en) * 2003-07-18 2007-02-06 International Business Machines Corporation Method and apparatus for providing projected user interface for computing device
KR100631779B1 (ko) * 2005-10-07 2006-10-11 삼성전자주식회사 데이터 입력 장치 및 상기 장치를 이용한 데이터 입력 감지방법
KR101286412B1 (ko) * 2005-12-29 2013-07-18 삼성전자주식회사 다중기능 가상 사용자 입력 장치 및 방법
KR100756521B1 (ko) * 2006-05-03 2007-09-10 포텍마이크로시스템(주) 유아 교육용 프로젝션 키보드 시스템 및 이를 이용한 키입력 방법
US20110307842A1 (en) * 2010-06-14 2011-12-15 I-Jen Chiang Electronic reading device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
CN1918532A (zh) * 2003-12-09 2007-02-21 雷阿卡特瑞克斯***公司 自容交互式视频显示***
US20060171588A1 (en) * 2005-01-28 2006-08-03 Microsoft Corporation Scalable hash-based character recognition
CN1913545A (zh) * 2005-08-11 2007-02-14 三星电子株式会社 移动通信终端的用户输入方法和装置
EP1818757A1 (en) * 2006-02-13 2007-08-15 Research In Motion Limited Power saving system for a handheld communication device having a reduced alphabetic keyboard
CN101589425A (zh) * 2006-02-16 2009-11-25 Ftk技术有限公司 将数据输入计算***的***和方法
EP2107414A1 (en) * 2008-03-31 2009-10-07 Brother Kogyo Kabushiki Kaisha Head mount display and head mount display system
WO2010042880A2 (en) * 2008-10-10 2010-04-15 Neoflect, Inc. Mobile computing device with a virtual keyboard

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106662936A (zh) * 2014-05-30 2017-05-10 惠普发展公司,有限责任合伙企业 显示器上的位置输入
CN106662936B (zh) * 2014-05-30 2020-09-11 惠普发展公司,有限责任合伙企业 显示器上的位置输入

Also Published As

Publication number Publication date
DE112010005854T5 (de) 2013-08-14
TWI595429B (zh) 2017-08-11
TW201222425A (en) 2012-06-01
GB2498485A (en) 2013-07-17
GB201307602D0 (en) 2013-06-12
US20130187893A1 (en) 2013-07-25
WO2012047206A1 (en) 2012-04-12

Similar Documents

Publication Publication Date Title
US11755137B2 (en) Gesture recognition devices and methods
US20210081036A1 (en) Interaction Engine for Creating a Realistic Experience in Virtual Reality/Augmented Reality Environments
CN108845668B (zh) 人机交互***和方法
US10209881B2 (en) Extending the free fingers typing technology and introducing the finger taps language technology
US20120249422A1 (en) Interactive input system and method
US20120326995A1 (en) Virtual touch panel system and interactive mode auto-switching method
KR102347248B1 (ko) 터치 제스쳐 인식 방법 및 장치
US9063573B2 (en) Method and system for touch-free control of devices
CN103365411A (zh) 信息输入设备、信息输入方法和计算机程序
KR20130001176A (ko) 근접 범위 움직임 추적 시스템 및 방법
US20150169134A1 (en) Methods circuits apparatuses systems and associated computer executable code for providing projection based human machine interfaces
US9400592B2 (en) Methods, systems and apparatus for digital-marking-surface space and display management
JP6325659B2 (ja) 操作画面表示装置、操作画面表示方法およびプログラム
CN106598422B (zh) 混合操控方法及操控***和电子设备
KR101575063B1 (ko) 뎁스 카메라를 이용한 다중 사용자 멀티 터치 인터페이스 장치 및 방법
CN105607845A (zh) 信息处理装置、信息处理方法以及程序
CN103221912A (zh) 输入命令
CN102799344B (zh) 虚拟触摸屏***以及方法
KR101486488B1 (ko) 다중 사용자 인식 멀티 터치 인터페이스 방법
WO2021075103A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018195053A (ja) 画像処理装置、画像処理プログラム及びジェスチャ認識システム
JP2015135537A (ja) 座標検出システム、情報処理装置、座標検出方法およびプログラム
JP2017058817A (ja) 情報処理装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20130724

RJ01 Rejection of invention patent application after publication