CN1478248A - 利用输入装置的位置预存用户交互元素的方法 - Google Patents

利用输入装置的位置预存用户交互元素的方法 Download PDF

Info

Publication number
CN1478248A
CN1478248A CNA018198554A CN01819855A CN1478248A CN 1478248 A CN1478248 A CN 1478248A CN A018198554 A CNA018198554 A CN A018198554A CN 01819855 A CN01819855 A CN 01819855A CN 1478248 A CN1478248 A CN 1478248A
Authority
CN
China
Prior art keywords
writing surface
target area
handwriting
record device
motor pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA018198554A
Other languages
English (en)
Other versions
CN1224939C (zh
Inventor
西瓦库马尔·穆图斯瓦米
约瑟夫G·希列特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Google Technology Holdings LLC
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Publication of CN1478248A publication Critical patent/CN1478248A/zh
Application granted granted Critical
Publication of CN1224939C publication Critical patent/CN1224939C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种预存用户交互元素的方法(60),包括的步骤为,利用笔迹记录器相对于书写表面的三维位置,用电子输入装置对运动模式(40)进行监测,其中电子输入装置中带有笔迹记录器和书写表面;在笔迹记录器离开书写表面时,对检测到的运动模式(42)进行分析,判断笔迹记录器是否正在接近书写表面(44)上的目标区域,目标区域具有关联的功能;在笔迹记录器与目标区域发生接触之前,触发关联功能(50)。这些步骤被连续地重复。分析步骤(42)判断笔迹记录器是否朝向书写表面运动,如果确实如此,则判断(46)记录器相对于书写表面平面的二维位置,并根据记录器在书写表面之外的位置及运动定义轨迹。识别(48)出位于轨迹终点附近的控制区域,作为要触发的目标区域。或者,根据笔迹记录器离开书写表面外的位置及运动,定义笔迹记录器与每个控制区域之间的多个轨迹,并将多个轨迹与实际轨迹进行相关。对于多个轨迹中具有最高相关度的那个轨迹,将相应的控制区域定义为要触发的目标区域。多个控制区域的触发可以同时或依序进行。本方法可以用于包括电感触针及手写板***、以及射频触针及手写板***的多种***中。

Description

利用输入装置的位置预存用户交互元素的方法
本专利申请与Gillette等人于2000年9月11日提交的未决美国专利申请No.09/6591809、名为“手写笔迹分析方法”的专利相关。
技术领域
本法明属于电子输入装置的领域。本法明涉及由输入装置的位置决定的、预存用户交互元素(interaction element)的方法。
背景技术
最近,在个人手持式计算机技术领域内已经取得许多进展,相关的典型技术包括个人数字助理(PDA)、掌上型PC(Palm PC)或口袋PC等。
最近,多种类型的用于个人数据组织的手持式电子装置取得了成功的市场行情。其中一种这样的装置是由位于加利福尼亚的一家3Com公司,即Palm Computing of Mountain View提供的、销售商标为PALMPILOT、PALM III、PALM IV、与PALM V的PDA。这些PDA中包括控制按钮以及触觉敏感屏,其中在触觉敏感屏上显示激活区域。典型情况下,PDA中显示电话号码、提示列表、日历、数字存储的地图、方向等,所有这些可以通过触摸激活区域与/或控制按钮来访问。
为了激活触觉敏感屏上的激活区域,PDA中还包括单独的手写笔或触针。触觉敏感屏的激活区域中可以包括数据输入口。用户可以使用屏幕上的键盘或者屏幕上对速记形式进行响应的手写“垫”向PALPILOT中输入数据。这两种数据输入装置都需要用触针来实现。例如,用户可以通过屏幕上的键盘输入字母字符。利用相应的软件,当触针放在手写板上与/或在手写板上移动时,手写垫能够识别/读取手写笔迹,并且能够将笔迹解释为执行给定功能的指令,或者将笔迹翻译为数字标记。
压力式触针***的固有特性是,其性能取决于触针与书写表面的接触。因此,当触针没有接触到书写表面时,典型的压力式***无法接收到触针数据。此外,压力式***的一个固有性特点是,无法提供对触针在书写表面上划过的速度的测量。
授予Meeks等人的美国专利No.5,347,589中公开了用于显示手写参数的***,其中用笔速来调节围绕在显示屏笔迹周围的包络。为了实现识别的目的,***允许将已经存储的参考签字与笔写的新签字进行并行比较。在其它的笔速式动态签字分析***中,产生与笔划过表面的切线速度成正比的模拟信号。***将信号与参考信号进行相关分析,并报告相关度。在另外的一个***中,通过使用带有加速度计和压力传感器的笔,提供自动识别信号,其中在内部将笔的加速度和压力作为判别信息。另外一个***判断笔速的X与Y分量,将速度矢量中的差分幅值用作内部判别信息。
触觉敏感***的第一个缺点为:用触针完成的动作只取决于触针与触觉敏感显示屏之间的直接接触。换句话说,如果触针没有接触到触觉敏感屏,由触针的使用或位置决定的计算机动作将不会被改变、实现或执行,而且,触针的位置信息既不会传递给触觉敏感屏,也不会被内部计算装置利用。
触摸敏感屏的激活区域还可以包括屏幕上的控制部分,控制部分由特殊定义的区域定义,如果接触到这些区域,将发生预定的变化或实现计算机的动作功能。由触觉敏感屏上的区域定义的控制部分的例子包括代表软件功能的图标与下拉菜单。例如,这些区域可以是位图。例如,这样的菜单包括文字处理软件中的文字处理功能,即“文件”、“编辑”、“视图”、“***”、“格式”、“工具”、“表格”、“窗口”以及“帮助”。目前,只有通过触针直接在特定的控制区域上与屏幕发生实际接触,才能执行触觉敏感屏上的激活区域(对应的功能)。
因此,现有触觉敏感***的第二个缺点为:只有触针直接在特定的控制区域上与屏幕发生实际接触后,计算机才能开始完成控制区域的功能,或者产生执行功能所需要的预备行为。在这样的接触发生之前,不会完成功能或预备的行为。
通过载入特定的软件程序或将软件程序进行缓存来实现软件功能将消耗时间。例如,在给出指令(即,触摸PDA或双击桌上型/膝上型计算机)激活诸如文字处理软件、日历、或地址列表的程序时,将软件程序完全装载入计算机内存将消耗时间。
因此,现有触觉敏感***的第三个缺点为:实现控制区域对应的功能时存在延迟,只有触针实际接触到定义控制区域的特定位置后,才会实现该功能。
对于现有的基于触摸敏感、触针/手写板、手持式的***,如果不使用在触针与手写板之间直接接触的触针与手写板,还有多种能够实现这个特性的触针式***。在本领域的技术范围内,目前有两种***部分实现了无需触针与手写板之间的直接接触,这两个***包含电感耦合与射频***。
Synaptics,Inc生产出一种电感耦合的笔式敏感***。这种电感***的工作方式是:通过调节固定点与移动点之间的电感耦合,对两点间的相对位置进行精确测量。特别地,***测量笔尖相对于笔式计算机的相对位置。***的印刷电路板上包含用作固定敏感线圈的迹线。将固定激发线圈放置在印刷电路板与液晶显示屏(LCD)之间。无源的笔中包含电容和线圈,用该笔在LCD上“书写”。这个***可以跟踪并记录笔在LCD上的移动。值得注意的是,此装置可以在LCD表面上一定距离内敏感到笔的位置。对于常规的电源输出,***可以在LCD表面上接近半(0.5)英寸的距离上对笔进行跟踪。
一个示例的实施例为射频”RF”笔式敏感***,该***由CROSS笔计算集团生产,被称为CROSSPAD装置。此***的笔中包含一个小型RF发射机,向笔记中发送笔画数据。由于发射机发送无线信号,***可以在显示屏表面上的一定距离内对笔的移动进行跟踪与记录。
消费者可以根据响应速度、无缝导航以及图形用户界面(GUI)易用性对电子产品进行判断和区分。带有菜单、超文本与图形选择特性的GUI正日益普遍,在电子装置中,为了适应日益增加的功能,包括这些特点的GUI屏幕密度正快速提高。对于无线装置,这种情况尤为突出这些装置的发展趋势是小尺寸以及带有小的、低分辨率的显示屏。
现有技术的用户辅助技术(例如WINDOWS中的“工具技巧”,以及当指针经过超级链接时的高亮显示/滚动)中使用二维信息(即屏幕上的X-Y位置)。这些用户辅助技术可以被称为预先提示。然而,使用这个技术的***中存在许多局限。
一种局限是不经意的触发。典型情况下,当用户在屏幕上不同的位置之间移动时,用户在屏幕平面上(沿着屏幕平面)移动。典型情况下,屏幕上包含许多不同的控制区域、热点或超级链接。因此,如果只使用二维技术在屏幕上移动,用户的移动会跨越许多控制区域。在这种情况下,用户不希望激活经过的控制区域;用户只希望激活目标控制区域。但是,由于中间区域直接出现在通向期望控制区域的路径上,在指针滑过超级链接或热点时,很可能不经意地激活中间的控制区域。这种不经意的触发被称为虚假提示。
第二个局限是访问时间。在手写板上特定的屏幕内的一般运动与控制区域交互之间,由于减少并排除了许多冲突,(与三维触针跟踪***相比,)二维***花费更多的时间来触发预先提示。
第三个局限是记录器跟踪。只有当触针接触到手写板(即有效输入区域)时,才能跟踪二维装置中的实际运动。没有跟踪第三维运动。
因此,通过对现有技术的介绍,表明需要PDA的工作更快并更方便。此外,需要一种精确接触PDA触觉敏感屏幕上选定的有效区域而言,更方便的方法和装置。
发明内容
本发明提出一种利用输入装置的位置来实现预存用户交互元素的方法和装置,其克服了迄今已知的方法和通用类型装置的缺点,对于许多不同的手持式电子输入***,使接触式屏幕***不再仅取决于触针与触觉敏感屏的直接接触;在触针与屏幕在特定的控制区域上发生实际接触之前,就可以完成执行被分配到确定的控制区域上的功能所需要的预备动作;并能降低激活给定软件功能的等候时间。
换句话说,在触针接触到屏幕之前,由触针的使用或位置决定的计算机动作即可被改变、实现或执行,而且,触针的位置信息即可传递给触觉敏感屏,并被内部计算装置利用。
本发明提供了一种预存***,可以根据指示装置(即触针)的三维位置和运动,预见到用户与***间可能进行的交互。特别地,在使用过程中,本发明捕获到触针的非接触运动。正如在此用到的,术语预存被定义为执行被分配到确定的控制区域上的功能所需要的预备动作。
而且,术语笔迹或运动模式被定义为用户的手的任何三维运动。笔迹可以是运动、手写符号,或者可以是用户签名。在此使用的笔或触针,可以是用户手持的任何对象,只要能用于发送进行电子与/或数字地捕获用户手的运动的信息。类似地,手写板、手写垫指那些为相对笔定义的任何(有形的或无形的)表面,被用来测量由用户手中的笔跟踪的笔迹。
为了提供上述的优点,本发明提出的方法与装置不仅仅用到落笔信息,还要用到提笔信息。落笔信息包括的信息是:当笔与所定义的书写表面(即手写板的表面)发生实际接触时,由电子笔/手写板***搜集到的信息。反之,提笔信息包括的信息是:当笔离开所定义的书写表面时,由电子笔/手写板***搜集到的信息。提笔信息也被称为隐藏数据。
作为本发明特征的其它特性将在所附的权利要求书中进行阐述。
通过利用输入装置的位置预存用户交互元素的方法,尽管将本发明作为实施例在此进行了示意及说明,不要将本发明局限于所示的详细说明中,这是由于,在不背离权利要求书的精神和范围内,可以对本发明进行多种修改及结构的改变。
然而,通过对下面特定的实施例以及附图的说明,可以对本发明工作的结构和方法,以及附加的目标及优点得到最佳的理解。
附图简要说明
图1表示根据本发明的运动模式的示意图;
图2表示在书写平面上的运动模式的示意图;
图3表示图2中应用根据本发明的方法的运动模式的示意图;
图4为代表图3中应用根据本发明的方法的运动模式的示意图的平面视图;
图5为图4中应用根据本发明的方法的书写表面的侧视图;
图6为根据本发明的方法的流程图。
优选实施例详细说明
在所有的示意图中,在每种情况中,带有的相同参考符号代表相同的子部件和主要部分。
现在参见附图中的视图,首先特别参见其中的图1,图示为代表单词“Inductive Pen Sensing”的运动模式的示意图。对于目前现有的三维敏感技术,***能够读取落笔信息2以及提笔或隐藏数据信息3。典型情况下,这些***将落笔信息2翻译为多个线段,它们在一起形成了(例如)将显示在纸张上的笔迹。在图1中,落笔信息用实线段4表示。在运动模式形成后,***还能够将隐藏数据信息3翻译为不会形成显示在纸张上的笔迹的部分。例如,在单个字母与/或字之间,当笔/触针(8)尖在书写表面7(图2)上移动并不与其接触时,隐藏数据信息3形成了笔/触针尖的三维轨迹。在图1中用虚线5表示了隐藏数据信息3的二维示意(在与手写板表面共面的X-Y坐标平面内)。例如,在图5中表示了触针从手写板离开的相对位置9(隐藏数据信息3的Z坐标)。下面将不再对这样的现有读取方法及装置进行更详细的介绍。
图2及3分别表示形成单词”John Hancock”的另一种运动模式6的一部分与整体。对于这个实例,应用了根据本发明的方法,笔式敏感***从运动模式或签字6中捕获到落笔信息2及隐藏数据信息3。***可以将落笔信息2翻译并存储为多个线段4,它们一起形成将显示在(例如)纸张上的笔迹的一部分。例如,参见图2。在图3和4中用实线段4表示落笔信息2。***还可以将隐藏数据信息翻译并存储为多个三维坐标,包括在手写板平面7上用X-与Y-坐标表示的二维轨迹6,以及离开手写板表面7的第三维触针位置9。参见图5。当笔(8)尖在书写表面7上移动时,(例如,)在单个字母与/或单词与/或位图控制区域10、11、12之间,不会与书写表面接触,因此,隐藏数据信息3中包含形成笔尖8的三维轨迹的信息。参见图4。在图3与4中用虚线5表示隐藏数据信息3的X-与Y-轴二维轨迹。
当在笔式敏感***中捕获到落笔2和隐藏数据信息3后,当前的现有技术仅对落笔信息2执行常规分析。然而,应用这个方法,***还可以分析隐藏数据信息3。因为对整个笔迹进行了分析,根据本发明的方法中将不再象现有技术的触觉式屏幕控制***那样,仅取决于触针8与触觉敏感屏7之间的直接接触,在触针实际接触到屏幕的特定控制区域10、11、12之前,此方法就可以实现分别执行分配给各自控制区域10、11、12的功能所需要的预备动作,并可以减少激活给定的软件功能的等候时间。本发明提出的方法为许多不同的手持式电子输入装置提供了上述全部优点。
参考图6,可以对根据本发明的方法进行更详细的解释。在此说明的方法60中包括了对多种优选和替代实施例的叙述。不应当将这种说的认为是公开了执行该方法的唯一方式。
在步骤20中,提供了一个利用输入装置的位置预存用户的交互元素的***。在步骤30中,输入装置的用户利用笔迹记录器8在书写表面7上生成运动模式6。在一个优选实施例中,笔迹记录器8为手持式的笔或触针。***实现了现有技术中监测触针8的接触位置以及根据这种接触执行功能的作用。
在步骤40中,根据本发明的***连续地监测并记录运动模式,包括触针8在书写表面7上形成的运动模式,以及触针8在离开书写表面7时形成的运动。更适宜的情况为,在书写表面7上的移动对应于用X及Y坐标表示的极性空间。同样是更适宜地,在离开书写表面7时形成的运动对应于用X、Y及Z坐标表示的、在书写表面7之上形成的三维空间。
在步骤42中,对触针的位置9(Z-坐标)以及触针在Z-方向上的运动13进行监测——Z-方向被定义为书写/屏幕表面的法线方向。在步骤44中,对触针的位置9以及触针的运动13进行分析,判断触针8是否朝向手写板7运动。如果判断结果为负,则重复执行步骤30、42与44,直到判断出触针8朝向手写板7运动。如果对朝向手写板的运动的判断结果为正,则在步骤46中,确定触针8的X-Y位置,并对此进行分析。
在步骤48中,识别出与触针8的X-Y位置对应的控制区域、链接10、11、12等等。单独的控制区域10、11、12最好足够大,使得在此步骤中只识别出10、11、12中的一个控制区域。如果已经识别出相应的控制区域10、11、12,则在步骤50中,***预存(即触发)与识别出的控制区域对应的功能。换句话说,在触针真正接触到控制区域之前,***就开始执行那些完成分配给识别出的控制区域的功能所需要的预备动作。或者,可以识别出10、11、12中多于一个的控制区域。每个控制区域对应的功能都可以被同时或依序预存,多个预存一直进行,直到识别出10、11、12中一个单独的控制区域。然后,***回转至对运动模式进行连续的监测及记录。
下面对利用了图4及5并应用了图6中的步骤的根据本发明的方法的实例进行说明。该实例并非是要局限于所叙述的步骤。也不希望将该实例认为是本发明的唯一应用。
该实例中包括用户,用带有触针8的电子输入装置输入手写签字6;实例中还包括用户接口屏幕7,上面有已定义的控制区域10、11、12。将笔式敏感***配置为能够连续地监测并记录触笔在全部三维中的位置。对于这个实例,用三个控制区域对***进行配置。第一个--“OK”的功能是:通知***可以接受刚刚写完的签字。第二个--“Redraw”的功能是:通知***不接受刚写完的签字,并通知***将重写签字。第三个--“Cancel”的作用是:通知***终止签字书写的过程。
用户利用触针8在用户接口屏幕7上述写签字6。参见图6中的步骤30。在进行书写时,***监测并记录签字6,包括触针8在用户接口屏幕7上形成的签字运动,以及触针8在离开用户接口屏幕7时形成的运动。参见步骤40。与监测及记录结合,***能够在用户接口屏幕7上对签字6进行电子显示,就象图4中示出的那样。也参见图2。然而,尽管***记录了隐藏数据信息3,***最好不对隐藏数据信息3进行显示。
在进行书写时,***对触针的位置9(见图5)以及触针在Z-方向上的运动13进行监测,即三维通路。在进行书写时,对触针的位置9以及运动13进行分析,判断触针8是否朝向手写板7运动。参见步骤42及33。在整个书写签字的过程中,一直重复这些特点。直到写完“Hancock”中的“k”,由于触针没有朝向手写板7运动,判断结果为负。对于这个例子,忽略了在“J”与“o”及“n”与“H”之间的运动。
在写完“Hancock”中的“k”后,用户将提起触针8,使它离开用户接口屏幕,并将触针抬起,将其移动到标注为“OK”的控制区域10上方。这个运动被称为触针轨迹。
一旦经过轨迹的最高点,一种可能的分析方法就能判断出触针8正在朝向手写板7运动。参见步骤44。在抬起点,判断触针8的X-Y位置,并对此进行分析。参见步骤46。然后***试图识别10、11、12中用户将激活的相应的控制区域。***将轨迹投射到二维或三维。因为在从签字中“k”的末端到对应于轨迹最高点的点(或者轨迹中其它任何点)定义的轨迹中,只出现了一个控制区域10,所以***能够可靠地判断出控制区域10将被选定。参见48。因此,在用户将触针8实际接触到控制区域10之前,***就开始预存(即触发)执行对应于控制10的功能所需的预备动作。参见步50。换句话说,在触针实际接触到控制区域10之前,***开始执行分配给控制区域10的功能。然后***回转至对触针的运动进行连续的监测及记录。
因为***对触针8的三维位置进行跟踪,在最高点进行预处理判断后,***无需继续等候。
在另一种可能的方法中,***甚至无需等候朝向屏幕的运动,因此去除了对最高点的判断。对于这个实例,由于只有三个可能的控制区域10、11、12,***从签字末端能够知道最可能发生的三个轨迹。一旦***检测到触针正朝向控制区域10运动(见图4)--通过将触针8的实际轨迹与三个可能轨迹进行相关运算--***能够预见到“OK”控制区域10将被激活,并因此预存由控制区域10定义的功能。应用根据本发明的方法,在用户用触针8实际接触到控制区域10之前,就可以激活控制区域10定义的功能。
可以将本发明提出的方法应用到多种***中,例如,包括使用电感触针及手写板的***,以及使用射频触针及手写板的***。
本实施例还可以包括执行在此叙述的方法的装置。

Claims (10)

1.一种预存用户交互元素的方法,其包括步骤:
利用笔迹记录器的三维位置相对于书写表面,用电子输入装置对运动模式进行监测,其中所述电子输入装置中带有笔迹记录器和书写表面;
在笔迹记录器离开书写表面时,对监测到的运动模式进行分析,以判断笔迹记录器是否正在接近书写表面上至少一个目标区域,所述至少一个目标区域具有相关的功能;和
在所述笔迹记录器与至少一个目标区域发生接触之前,触发所述功能的至少一个方面。
2.根据权利要求1中所述的方法,其中,所述分析步骤包括:对所述笔迹记录器的位置进行分析,以判断所述笔迹记录器是否朝向书写表面运动;而且,在判断出所述笔迹记录器正朝向书写表面运动之前,重复所述监测及分析步骤。
3.根据权利要求2中所述的方法,其包括:
如果判断出所述笔迹记录器正朝向书写表面运动,则判断所述笔迹记录器相对于书写表面平面的二维位置;和
根据二维位置及所述笔迹记录器离开书写表面时的运动来定义轨迹。
4.根据权利要求3中所述的方法,其包括:
在书写表面上提供控制区域;
识别至少一个位于所述轨迹的终点附近的控制区域;和
将所述至少一个控制区域定义为至少一个目标区域。
5.根据权利要求4中所述的方法,其中所述至少一个目标区域为一个目标区域,所述识别步骤包括:识别一个控制区域,且所述定义步骤包括:将所述控制区域中的一个定义为一个目标区域。
6.根据权利要求2中所述的方法,其包括:
在书写表面上提供控制区域;
当判断出所述笔迹记录器正朝向书写表面运动时,根据所述笔迹记录器离开书写表面时的位置及运动,定义在所述笔迹记录器与每个控制区域之间的多个轨迹;
监测所述笔迹记录器的实际轨迹;
将所述多个轨迹与实际轨迹进行相关联;和
对于多个轨迹中具有最高相关度的那个轨迹,将相应的控制区域定义为至少一个目标区域。
7.在监测运动模式的过程中,一种预存用户接口元素的方法,其包括:
利用笔迹记录器相对于书写表面的三维位置,用电子输入装置对运动模式进行监测,其中所述电子输入装置中带有笔迹记录器和书写表面;
在所述笔迹记录器离开书写表面时,对检测到的运动模式进行分析,以判断所述笔迹记录器是否正在接近书写表面上至少一个目标区域,所述至少一个目标区域具有相关联的功能;和
在所述笔迹记录器与所述至少一个目标区域发生接触之前,触发所述功能的至少一个方面。
8.在使用电感触针与手写板***来监测运动模式的过程中,一种预存用户接口元素的方法,其包括:
利用笔迹记录器相对于手写板的三维位置,用电子输入装置对运动模式进行监测,其中所述电子输入装置中带有电感触针和手写板;
在所述触针离开书写表面时,对检测到的运动模式进行分析,以判断所述触针是否正在接近所述手写板上的至少一个目标区域,所述至少一个目标区域具有相关联的功能;和
在所述触针与所述至少一个目标区域发生接触之前,触发所述功能的至少一个方面。
9.在使用射频触针与手写板***来监测运动模式的过程中,一种预存用户接口元素的方法,其包括:
利用所述触针相对于所述手写板的三维位置,用电子输入装置对运动模式进行监测,其中所述电子输入装置中带有射频触针和手写板;
在所述触针离开所述手写板时,对检测到的运动模式进行分析,以判断所述触针是否正在接近所述手写板上的至少一个目标区域,所述至少一个目标区域具有相关联的功能;和
在所述触针与所述至少一个目标区域发生接触之前,触发所述功能的至少一个方面。
10.在用于监测运动模式类型的方法中,其中用于监测运动模式的***利用笔迹记录器在书写表面上对笔迹进行监测,所述书写表面上包括与功能关联的控制区域,所述运动模式包括所述记录器在书写表面上的运动以及所述记录器离开书写表面时的运动,并且利用检测到的运动模式对运动模式进行分析,得到的改善包括:
在所述记录器离开书写表面时,对检测到的运动模式进行分析,以判断所述记录器是否正在接近所述书写表面上的至少一个目标区域;和
在所述记录器与所述至少一个目标区域发生接触之前,触发所述相关联功能的至少一个方面。
CNB018198554A 2000-11-06 2001-10-29 利用输入装置的位置预存用户交互元素的方法 Expired - Lifetime CN1224939C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/706,894 US6486874B1 (en) 2000-11-06 2000-11-06 Method of pre-caching user interaction elements using input device position
US09/706,894 2000-11-06

Publications (2)

Publication Number Publication Date
CN1478248A true CN1478248A (zh) 2004-02-25
CN1224939C CN1224939C (zh) 2005-10-26

Family

ID=24839512

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB018198554A Expired - Lifetime CN1224939C (zh) 2000-11-06 2001-10-29 利用输入装置的位置预存用户交互元素的方法

Country Status (5)

Country Link
US (1) US6486874B1 (zh)
EP (1) EP1337907A4 (zh)
CN (1) CN1224939C (zh)
AU (1) AU2002232932A1 (zh)
WO (1) WO2002037236A2 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100374976C (zh) * 2004-12-23 2008-03-12 国际商业机器公司 验证移动计算机用户的身份的方法和移动计算机
CN101840519A (zh) * 2010-04-14 2010-09-22 上海合合信息科技发展有限公司 手写输入时自动滚动电子墨水的方法
CN101689245B (zh) * 2007-06-27 2012-02-29 微软公司 识别输入姿势的方法和***及其训练方法和装置
CN102830824A (zh) * 2011-06-13 2012-12-19 崔伟 一种软笔仿真***及软笔仿真方法
CN105556438A (zh) * 2013-09-18 2016-05-04 触觉实验室股份有限公司 用于使用关于状态变化的信息来提供对用户输入的响应并预测未来用户输入的***和方法

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6904570B2 (en) * 2001-06-07 2005-06-07 Synaptics, Inc. Method and apparatus for controlling a display of data on a display screen
US7952570B2 (en) 2002-06-08 2011-05-31 Power2B, Inc. Computer navigation
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
KR100518824B1 (ko) * 2003-03-17 2005-10-05 삼성전자주식회사 필기 모션 획 구분 인식 시스템 및 그 인식방법
US7554545B2 (en) * 2003-11-04 2009-06-30 Ssd Company Limited Drawing apparatus operable to display a motion path of an operation article
JP4357935B2 (ja) * 2003-11-14 2009-11-04 株式会社東芝 情報処理装置およびサインデータ入力プログラム
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US8290313B2 (en) * 2005-03-18 2012-10-16 The Invention Science Fund I, Llc Electronic acquisition of a hand formed expression and a context of the expression
US8102383B2 (en) 2005-03-18 2012-01-24 The Invention Science Fund I, Llc Performing an action with respect to a hand-formed expression
US8232979B2 (en) 2005-05-25 2012-07-31 The Invention Science Fund I, Llc Performing an action with respect to hand-formed expression
US7873243B2 (en) 2005-03-18 2011-01-18 The Invention Science Fund I, Llc Decoding digital information included in a hand-formed expression
US8229252B2 (en) 2005-03-18 2012-07-24 The Invention Science Fund I, Llc Electronic association of a user expression and a context of the expression
US8749480B2 (en) 2005-03-18 2014-06-10 The Invention Science Fund I, Llc Article having a writing portion and preformed identifiers
US8787706B2 (en) 2005-03-18 2014-07-22 The Invention Science Fund I, Llc Acquisition of a user expression and an environment of the expression
US8340476B2 (en) 2005-03-18 2012-12-25 The Invention Science Fund I, Llc Electronic acquisition of a hand formed expression and a context of the expression
US8599174B2 (en) 2005-03-18 2013-12-03 The Invention Science Fund I, Llc Verifying a written expression
US7809215B2 (en) 2006-10-11 2010-10-05 The Invention Science Fund I, Llc Contextual information encoded in a formed expression
WO2008111079A2 (en) 2007-03-14 2008-09-18 Power2B, Inc. Interactive devices
US10452207B2 (en) * 2005-05-18 2019-10-22 Power2B, Inc. Displays and information input devices
US20060267966A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Hover widgets: using the tracking state to extend capabilities of pen-operated devices
US20060267967A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Phrasing extensions and multiple modes in one spring-loaded control
US7603633B2 (en) 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
ATE451359T1 (de) * 2006-02-10 2009-12-15 Janssen Pharmaceutica Nv Neue tricyclische dihydropyrazine als kaliumkanalöffner
US9229630B2 (en) * 2006-04-03 2016-01-05 Respironics Oxytec, Inc User interface for a portable oxygen concentrator
US7890863B2 (en) 2006-10-04 2011-02-15 Immersion Corporation Haptic effects with proximity sensing
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US10642364B2 (en) * 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US20100107116A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
US20140033134A1 (en) * 2008-11-15 2014-01-30 Adobe Systems Incorporated Various gesture controls for interactions in between devices
CN102369724B (zh) 2009-02-18 2016-05-04 谷歌公司 自动捕获信息,例如使用文档感知设备捕获信息
CN102349087B (zh) 2009-03-12 2015-05-06 谷歌公司 自动提供与捕获的信息例如实时捕获的信息关联的内容
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
GB2496790B (en) * 2010-07-06 2019-01-16 T Data Systems S Pte Ltd Data storage device with data input function
US9223471B2 (en) 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
FR2970362B1 (fr) * 2011-01-11 2013-12-27 Ingenico Sa Procede d'authentification electronique d'une signature manuscrite, module et programme d'ordinateur correspondants.
TWI474265B (zh) * 2011-08-04 2015-02-21 Univ Nat Cheng Kung 移動軌跡校正方法及移動軌跡產生方法
EP3080967B1 (en) 2013-12-11 2021-10-13 Ademco Inc. Building automation control systems
US20170214674A1 (en) 2016-01-25 2017-07-27 Google Inc. Reducing latency
US10488062B2 (en) 2016-07-22 2019-11-26 Ademco Inc. Geofence plus schedule for a building controller
JP7280682B2 (ja) * 2018-10-24 2023-05-24 東芝テック株式会社 サイン入力装置、決済端末、プログラム、サイン入力方法
US11157099B2 (en) * 2019-08-05 2021-10-26 Adx Research, Inc. Electronic writing device and a method for operating the same
US11373373B2 (en) * 2019-10-22 2022-06-28 International Business Machines Corporation Method and system for translating air writing to an augmented reality device
CN113625887A (zh) * 2021-07-01 2021-11-09 华东师范大学 书写轨迹采集设备、及其应用的书写笔、***和方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4040010A (en) 1975-11-06 1977-08-02 Stanford Research Institute Identification by handwriting verification
US4040012A (en) 1976-04-28 1977-08-02 Stanford Research Institute Handwriting verification system
US4086567A (en) 1976-08-20 1978-04-25 Stanford Research Institute Handwriting verification system using landmarks
NL7803764A (nl) * 1978-04-10 1979-10-12 Philips Nv Akoestische schrijfcombinatie, bevattende een schrijf- instrument met een bijbehorend schrijftablet.
GB2159998B (en) 1984-06-07 1988-02-17 Rolls Royce Personal handwriting verification
US4646351A (en) 1985-10-04 1987-02-24 Visa International Service Association Method and apparatus for dynamic signature verification
US5274362A (en) * 1990-02-28 1993-12-28 Lucien Potvin Electronic blackboard interface
US4980519A (en) * 1990-03-02 1990-12-25 The Board Of Trustees Of The Leland Stanford Jr. Univ. Three dimensional baton and gesture sensor
US5144594A (en) * 1991-05-29 1992-09-01 Cyber Scientific Acoustic mouse system
US5347589A (en) 1991-10-28 1994-09-13 Meeks Associates, Inc. System and method for displaying handwriting parameters for handwriting verification
US5434928A (en) 1993-12-06 1995-07-18 At&T Global Information Solutions Company Method for verifying a handwritten signature entered into a digitizer
US5544255A (en) 1994-08-31 1996-08-06 Peripheral Vision Limited Method and system for the capture, storage, transport and authentication of handwritten signatures
US5892824A (en) 1996-01-12 1999-04-06 International Verifact Inc. Signature capture/verification systems and methods
US5870079A (en) * 1996-11-12 1999-02-09 Legaltech, Inc. Computer input device and controller therefor
US6144371A (en) * 1998-03-18 2000-11-07 International Business Machines Corporation Thinkscribe combined electronic and paper based scheduling
US6222522B1 (en) * 1998-09-18 2001-04-24 Interval Research Corporation Baton and X, Y, Z, position sensor
US6281888B1 (en) * 1999-01-07 2001-08-28 International Business Machines Corporation Pen input device using electrostatic coupling
US6326957B1 (en) * 1999-01-29 2001-12-04 International Business Machines Corporation System and method for displaying page information in a personal digital notepad

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100374976C (zh) * 2004-12-23 2008-03-12 国际商业机器公司 验证移动计算机用户的身份的方法和移动计算机
CN101689245B (zh) * 2007-06-27 2012-02-29 微软公司 识别输入姿势的方法和***及其训练方法和装置
CN101840519A (zh) * 2010-04-14 2010-09-22 上海合合信息科技发展有限公司 手写输入时自动滚动电子墨水的方法
CN102830824A (zh) * 2011-06-13 2012-12-19 崔伟 一种软笔仿真***及软笔仿真方法
CN105556438A (zh) * 2013-09-18 2016-05-04 触觉实验室股份有限公司 用于使用关于状态变化的信息来提供对用户输入的响应并预测未来用户输入的***和方法

Also Published As

Publication number Publication date
US6486874B1 (en) 2002-11-26
WO2002037236A3 (en) 2002-08-01
WO2002037236A2 (en) 2002-05-10
EP1337907A4 (en) 2007-02-28
AU2002232932A1 (en) 2002-05-15
CN1224939C (zh) 2005-10-26
EP1337907A2 (en) 2003-08-27

Similar Documents

Publication Publication Date Title
CN1224939C (zh) 利用输入装置的位置预存用户交互元素的方法
CN100445937C (zh) 笔迹轨线识别***和方法
CN102422254B (zh) 用于检测和响应用户输入对象的大小和/或角度取向的电子装置的显示器
EP3427136B1 (en) Soft touch detection of a stylus
CA2076506C (en) Apparatus and method for reducing system overhead while inking strokes in a finger or stylus-based input device of a data processing system
EP1507192B1 (en) Detection of a dwell gesture by examining parameters associated with pen motion
CN100336000C (zh) 输入处理方法和输入控制装置
CN102144208B (zh) 结合笔跟踪的多点触摸触摸屏
US7932895B2 (en) Control of an electronic device using a gesture as an input
US20050052427A1 (en) Hand gesture interaction with touch surface
US20100123665A1 (en) Displays for Mobile Devices that Detect User Inputs Using Touch and Tracking of User Input Objects
US20060028457A1 (en) Stylus-Based Computer Input System
US20120212440A1 (en) Input motion analysis method and information processing device
CN104657062A (zh) 图形编辑方法以及电子装置
WO2012046112A1 (en) Displays for electronic devices that detect and respond to the contour and/or height profile of user input objects
US8884930B2 (en) Graphical display with optical pen input
CN105094654A (zh) 一种屏幕控制方法及装置
CN104461338A (zh) 可携式电子装置及控制可携式电子装置的方法
US20010033268A1 (en) Handheld ergonomic mouse
CN112698739B (zh) 一种控制方法及装置
CN101339474A (zh) 触控面板结构及其输入方法
CA2817318C (en) Graphical display with optical pen input
CN1848055A (zh) 一种无线指示装置
CN102339152A (zh) 具有ClearPad功能的移动终端及其实现方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MOTOROLA MOBILE CO., LTD

Free format text: FORMER OWNER: MOTOROLA INC.

Effective date: 20110120

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20110120

Address after: Illinois State

Patentee after: MOTOROLA MOBILITY, Inc.

Address before: Illinois, USA

Patentee before: Motorola, Inc.

C41 Transfer of patent application or patent right or utility model
C56 Change in the name or address of the patentee
CP01 Change in the name or title of a patent holder

Address after: Illinois State

Patentee after: MOTOROLA MOBILITY LLC

Address before: Illinois State

Patentee before: MOTOROLA MOBILITY, Inc.

TR01 Transfer of patent right

Effective date of registration: 20160302

Address after: California, USA

Patentee after: Google Technology Holdings LLC

Address before: Illinois State

Patentee before: MOTOROLA MOBILITY LLC

CX01 Expiry of patent term
CX01 Expiry of patent term

Granted publication date: 20051026