CN102428436A - 触摸屏、相关的操作方法和*** - Google Patents

触摸屏、相关的操作方法和*** Download PDF

Info

Publication number
CN102428436A
CN102428436A CN2010800217935A CN201080021793A CN102428436A CN 102428436 A CN102428436 A CN 102428436A CN 2010800217935 A CN2010800217935 A CN 2010800217935A CN 201080021793 A CN201080021793 A CN 201080021793A CN 102428436 A CN102428436 A CN 102428436A
Authority
CN
China
Prior art keywords
screen
touch
user
component
touches
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2010800217935A
Other languages
English (en)
Inventor
伊恩·萨默斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Innovations Co ltd Hong Kong
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN102428436A publication Critical patent/CN102428436A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

示例性实施方式关注一种触摸屏,该触摸屏被设置成当被用户的屏幕触合件触摸时进行判定,并且被进一步设置为识别所述触合件的识别特征,以便将不同的屏幕触合件区分开,并且其中,屏幕的至少一方面的后续操作响应于所述触合件的识别。

Description

触摸屏、相关的操作方法和***
技术领域
本发明涉及能够普遍地形成用于移动设备、手持设备、电子设备的界面设备的触摸屏,并且还涉及总体大规模的工作站以及控制***。
背景技术
在使得用户能够直接与设备/***的显示关于该设备/***的操作的信息的部件交互方面,通常认为触摸屏作为界面设备是优异的。
而且,这种已知的触摸屏的并入还可以帮助省去对诸如标准键盘这样的单独用户界面装置的需要,从而使得设备更加小巧并且易于携带。
引用列表
专利文献
专利文献1:美国专利公开No.2005/193351
专利文献2:国际专利公开No.WO2009/032638
专利文献3:美国专利公开No.2006/274044
专利文献4:美国专利公开No.2009/037846
发明内容
技术问题
然而,尽管比标准键盘展现出优势,但是在考虑到恰当的使用、控制和导航功能方面,当前的触摸屏却显现出了缺点和限制,用户经常需要过多次的“触摸”,其用于将速度限制在能够应用并且能够看清所述设备/装置/***的范围内,从而使得该屏幕的使用看起来不必要的复杂和无效率。
利用这种相对高等级的终端用户交互,对于用户界面渲染(rendering)需要不利地多次变化,并且这将会不利地耗费CPU资源,而且该设备/装置/***还需要更多的电力。已知的触摸屏还显现出了有限的控制,因为并未证实其可以在需要不同用户设置和权限的多用户环境内即能使用。因此,当采用如当前现有技术中已知的触摸屏时,产生了潜在的安全性的不足。
例如,可以在上述专利文献中,即,US-A-2005/193351、WO-A-2009/032638、US-A-2006/274044和US-A-2009/037846中找到这种已知的触摸屏的实例。
尽管所有这些在先文献都专注于总体采用了触摸屏的用户界面,但是没有一个寻求解决上面指出的缺点,使得所述的限制仍旧存在。
问题的解决方案
本发明的示例性目的是提供一种比已知触摸屏、方法和***更优异的一种触摸屏、操作方法和相关***。
根据本发明的示例性方面,提供一种触摸屏,该触摸屏被设置成当被用户的屏幕触合件触摸时进行判定,并且被进一步设置为识别所述触合件的识别特征,以便将不同的屏幕触合件区分开,并且其中,屏幕的至少一方面的后续操作是响应于所述触合件的识别的。
根据本发明的示例性方面,提供一种控制触摸屏的至少一方面操作的方法,包括:当被用户的屏幕触合件触摸时进行判定,并且包括识别所述触合件的识别特征以便将不同的屏幕触合件区分开的步骤,并且其中,响应于所述屏幕触合件的识别来控制所述至少一方面。
本发明的有益效果
已经提供了比已知触摸屏、方法和***更优异的一种触摸屏、操作方法和相关***。
附图说明
图1是体现本实施方式的触摸屏的剖面部分(section through part)的示意性表示。
图2是示出了用户与体现本实施方式的触摸屏的接触的示意性平面图。
图3是示出了体现本实施方式的触摸屏的操作的另一平面图。
图4是体现本实施方式的触摸屏在使用期间的还一平面图。
图5是体现本实施方式的这种触摸屏的又一平面图。
图6图示了高等级的映射表格,该映射表格图示了体现本实施方式的屏幕的预配置使用的实例。
图7是图示了体现本实施方式的触摸屏装置的使用的流程图。
附图标号
10用户手指
12屏幕表面
12A接触部分
14用户手指的下表面
16一连串电容传感器
18触摸屏
20用户的右手
22菜单
24菜单
25触发点
26菜单
28菜单
30用户的手
32用户的手
34菜单
36菜单
38菜单
40菜单
42菜单
44菜单
46菜单
48菜单
50菜单
52菜单
54菜单选项
具体实施方式
根据本实施例的第一方面,提供一种触摸屏,该触摸屏被设置成当被用户的屏幕触合件触摸时进行判定,并且被进一步设置为识别所述触合件的识别特征,以便将不同的屏幕触合件区分开,并且其中,屏幕的至少一方面的后续操作响应于所述触合件的识别。
所述实施方式证实了在下述方面而言是优异的:屏幕触合件的识别用于将被不同屏幕触合件所触摸的不同的同时屏幕触摸区分开,并且能够进一步将被不同屏幕用户所触摸的屏幕触摸区分开。通过这种功能,有益地证实了:以远远超过当前可行方式的简便性和效率渲染屏幕的操作以及与屏幕的交互,并且能够容易地用于减少为实现所需程度的控制和交互所需要的屏幕的总数。因此,可以实现操作的更加简便和快捷。
本设备能够容易地识别出同时发生的多接触,并且容易地将这些多接触与不同的接触件/用户相关联,以便在需要时开始预先定义的响应。
例如,本实施方式的屏幕设备可以容易地识别出特定终端用户,并且可以将诸如他们的手指或拇指这样的终端用户屏幕触合件区分开,而且,每个这种触合件在与触摸屏接触时,可以使得所述屏幕和任何相关设备/***以适当的方式起作用。
可以理解的是,所述触摸屏可以有益于界面设备,并且可以包括该触摸屏所连接到的电子设备的一部分,该电子设备诸如是以PDA、移动手持电话或便携式电脑/笔记本电脑形式的便携式设备。
此外,所述界面设备可以被设置为用于与单独的设备、装置或***相连接。
特别地,所述触摸屏可以包括多个电子数据管理/控制***用界面设备的其中一个。特别地,所述触摸屏可以被设置为用于多用户设备/***。
在一个特定实施例中,所述触摸屏被设置为用于与屏幕触合件交互,该屏幕触合件包括用户的拇指与手指的其中一者或两者。
于是,所述识别特征可以有益地包括生物数据,例如可以包括手指/拇指指纹。
有益地,所述触摸屏被设置为采用电容传感器,以便采用电容测量手段作为用于判定用户的拇指/手指指纹的手段。
作为替换,所述屏幕触合件可以包括屏幕接触设备,该屏幕接触设备可以进一步有益地包括用于提供所述识别特征的电子识别设备,例如电子标签。
所述设备可以有益地设置为佩戴在用于的手臂和/或手指上。
作为进一步的实例,这样的屏幕触合件可以包括屏幕触合笔。
可以理解的是,所述识别特征可以被设置为识别屏幕触合件和/或采用该屏幕触合件的设备的实际终端用户。
如所指出的,尽管可以响应于屏幕触合件的识别来控制所述屏幕的完全操作,但是仅仅需要这样控制后续操作的至少一方面。
例如,可以响应于所述屏幕触合件的识别来控制显示选项、功能选项、功能控制选项和屏幕设备/装置/***接入功能的至少其中一者。
关于所述显示选项,可以将屏幕的一部分设置成显示表示进一步交互区的图像。这种进一步交互区可以包括至少一个用于识别将不同屏幕触合件区分开的屏幕触合件特征的区域。因而,一旦已经打开了特定的显示区,并且由最初与屏幕触合的用户确定时,通过与显示区域的用户触合经过单独等级的用户区分来实现进一等级的控制。由不同用户在这个区域内的触合可以提供响应于此时触合屏幕的具体用户的识别的进一不同后续动作/事件。因此,任何这种显示区域可以包括所谓的触发点,用户与该触发点触合以便开始这种进一步需要的动作/事件。当然,可以在任何这种显示区中设置一个或多个这种触发点。
从上面可以理解的是,可以有益地通过菜单树型的结构来采用这种总体上层叠式控制设置。
屏幕的后续操作的至少一方面包括与屏幕的接入控制,或者是所述屏幕形成其一部分的设备/装置/***可以响应于所述触合件的识别来控制适当的用户设置和/或权限。于是相应地控制触摸屏的后续操作。
根据本实施方式的另一方面,本实施方式提供了一种多用户电子控制***,该***包括至少一个上述的触摸屏装置。
根据本实施方式的再一方面,提供了一种控制触摸屏的至少一方面操作的方法,包括:当被用户的屏幕触合件触摸时进行判定,并且包括识别所述触合件的识别特征以便将不同的屏幕触合件区分开的步骤,并且其中,响应于所述屏幕触合件的识别来控制所述至少一方面。
因此,应当理解的是,本实施方式涉及:提供一种采用任何适当传感器技术的触摸屏,以特定地识别例如正触摸显示屏的每个终端用户手指或拇指上的生物数据这样的特定特征是单个接触点还是多个接触点。以这种方式,识别用户手指或拇指的(生物)数据,例如他们的指纹,可以容易地用于识别哪根手指或拇指已经与屏幕接触或者确实地识别哪个用户当前正在操作屏幕。通过使用不同的手指和拇指,能够控制预定的或者用户选择的操作功能。例如,当一个用户的手指随意地放置在屏幕上时,该屏幕和其相关设备可以容易地识别具体用户,而后例如容易地调用设备内的诸如MP3应用的“播放”功能这样的所需功能。当然,用户的其它手指和拇指可以调用不同的功能,诸如“前进”、“后退”或者“暂停”功能。此外,如果识别出不同的用户正与屏幕交互,则该用户的手指和拇指可以根据需要调用不同动作。
因此,本实施方式在以下方面是十分有用的:在可以容易地调用和控制适当等级的相关用户设置、安全接入和权限的范围内,允许通过屏幕的多接触控制以及通过与屏幕的多用户交互来改善控制的程度。当然,还可以理解的是,本实施方式可以包括用于捕捉前述识别特征并且同时存储该识别特征,必要时还存储适当的用户设置、接入等级和权限等等的装置。
下文中,通过参考附图1-7,仅通过示例进一步描述本实施方式。
首先转向图1,图1提供了根据本实施方式的一实施例的触摸屏的一部分的示意性表示。
要理解的是,本实施例的触摸屏可以采用任何合适的传感器阵列,利用该传感器阵列,不仅能够确定用户在屏幕上的触摸位置,而且根据该实施例还能够容易地判定识别数据。
在下述的实例中,一般将用户的手指用作为屏幕触合件,并且用户的指纹所代表的生物数据用于包含该手指的识别特性。
要理解的是,除了原始的电阻性传感器,触摸屏目前还根据各式各样的特征而操作,诸如表面声波屏幕、电容式屏幕、投射电容式屏幕、红外线屏幕等。
关于本实施例,认为触摸屏的特别适合的形式是包括电容传感器并且例如图1所示。这里提供了用户的手指10与触摸屏的表面12相触合的示意图,其中以示出了屏幕表面12的接触部分12A的放大图的方式图示了接触那点的部分,并且进一步参考包括有用户的指纹所限定的一连串波峰和波谷的该用户的手指的下表面14来图示出接触那点的部分。
如图1所示,一连串的电容传感器16有效地形成在表面部分12a与用户手指的下表面14之间。
电流COMS电容传感器可以用于将传感器与用户手指的表面14之间的电容测量到高度分辨率,例如,以22nm的阶次(order),或者完全是与单个像素对应的尺寸。这种分辨率使得电子设备能够测量和记录当然包含有用户指纹显示的用户手指16的表面14的轮廓。如上所述,这些轮廓的波峰和波谷代表了不同的电容值。
通过这种电容值的测量,容易地证实了可以将的手指接触的单个点以三维形式表示。表面区域提供第一和第二维(X和Y轴),而电容的值以第三维(Z轴)表示手指表面的特征。
通过x、y和z轴中的这些读数,变得可以容易地测量、记录和随后识别一组被激活的传感器,以提供个体用户指纹的特有渲染。
就如每个用户手指将提供不同的指纹,对于每个用户不同的八根手指和两根拇指可以实现独立的读取,使得屏幕可以容易地将在所有用户的手指和拇指之间同时发生的相似接触点区分开。
因此,有益地,通过判定用户指纹的表现形式,可以将如图1所构造的触摸屏设置为当需要时首先捕捉用户手指的三维表现形式,包括指纹图案,并且为了需要时方便使用而存储该三维表现形式。当然,这种指纹数据也可以使通过其它的装置捕捉并且被随后根据需要被加载到触摸屏设备上。
在任何情况下,在本实施例的随后使用期间,不仅仅能够容易地确定触点的位置,而且还能够识别出当前哪一个用户正在接触,并且在需要时,还能够识别出在所述接触点或每一个接触点处十根可能手指的哪一根正在使用。
因此,触摸屏可以有益地跟踪单个用户的多个同时触碰,导致了触摸屏的特别简便且又省时的交互。此外,可以容易地实现与预先定义的用户设置和所允许的权限有关的特别的安全层、每个具体用户的实际识别,以便以适当的方式将所述设备构造为根据所述设置和权限来操作,并且当然根据需要而允许/拒绝继续进行的访问。作为一个实例,如果终端用户正在使用MP3播放器功能,则可以将“播放”“暂停”、“前进”“后退”和“停止”的控制赋予给例如用户右手的用户手指和拇指中的每一根,使得能够容易地识别仅仅这些手指中的任何一根在MP3播放器的触摸屏上的接触,以便控制屏幕操作。
参考图2的进一步图示,该图2示出了根据本实施方式的一实施例的触摸屏18的俯视图,并且该触摸屏18已经被用户右手20的四根手指触摸。
所述触摸屏在先前已经被预设为:针对图示的用户四根手指中的每根手指的指纹来判定将打开四个可用菜单22-28中哪一个,以用于显现在屏幕18上。
因而,如果需要,用户可以仅仅通过选择其一根手指与屏幕18接触就简单地访问其中一个菜单。
用户的不同手指/拇指的每一根的灵敏识别还能够允许用户利用屏幕与他们的手进行交互,被构造成就好像利用标准“qwerty”键盘一样。图3提供了这种说明,其中,用户的两只手30、32被图示为与屏幕18触合,并且其中用户的每根拇指/手指被设置为通过触摸屏18而被识别出,以便打开十个可用菜单中适当的一个。
即,用户左手30的每根手指可以被设置为打开菜单34-40,其中用户左手30的拇指被设置为打开另外的视图42。
用户右手被设置为通过使用相关手指打开菜单44-50,并且通过使用相关拇指打开菜单52。因此,可以通过各种菜单以及简单地通过曾经与触摸屏18触合的用户就能够容易地呈现各式各样的选项;当然,这里的“曾经”是指所有手指和拇指与屏幕18之间单独但同时的接触。
还应该理解的是,屏幕18的用户触合并不需要简单地致使显示适当选项的菜单。
可以根据用户其他手指中的哪一根正与显示屏18接触来有选择地确定任何适当的功能、访问控制或显示选项。一旦已经确定了哪一个用户正与屏幕触合,那么就可以通过屏幕呈现适当控制界面,所述屏幕对与该屏幕交互的任何设备/装置/***允许适当等级的接触。
当然,屏幕18可以形成为用于在多用户环境内操作而设置的多个屏幕中的一个。实际上,多用户环境可以容易地找出应用诸如附图所示的18那样的单个屏幕的使用,只要这个单个屏幕可以容易的判定用户的识别何时变化并且可以根据完全不同的用户迅速地在适当应用之间切换即可。本实施例的特别优点在于,屏幕的功能应用所需要的同一个接触操作也用作为用户识别处理的一部分,使得不在另外需要例如单独的登录/用户接入绪言脚本(introduction scenarios)。
其他等级的选择性功能可以根据需要而内建在屏幕及其相关的设备/操作/***中。例如,图2和图3中的每个菜单选项的显示图像图示了能够在每个菜单图像内应用的圆形触发点,以便进一步起动控制/选择功能。
现在将参考图4,其中也示出了图2的用户右手20和各种菜单选项22-28。
然而,在图4中,用户已经决定菜单24是对于后续应用最合适的菜单,并且通过与该菜单24触合,具体地,通过相关手指在图4的箭头A的方向上横跨触发点25的运动,选择所述菜单24。通过选择第二个菜单24,可以使其它的三个菜单22、26和28或者以减弱的对比度来显示或者被布置成完全从显示器18消失。
这样的触发点25用作为菜单24的图像区显示范围内的区域,其自身被设置为识别用户的识别特征以便区分开不同的用户,或者区分开用户的确实不同的手指/拇指。用户的识别,或者用户与触发点25交互的手指的识别可以容易地用于控制能够进行多种进一步选项中的哪一个。当然应该理解的是,触发点25可以被设置为针对实际上与使得菜单24在首要位置显示的用户不相同的用户的识别而作用。
转向图5,该图5图示出随着用户与初始菜单24的触发点25的交互而显现出一些菜单选项54。
再一次,根据识别出右手20激活触发点25的具体手指来确定子菜单54中的选项。
用作为触发点的图像区内的区域可以包括各种特征。例如,这样的触发点可以包括屏幕的可识别区域,该可识别区域能够特定地读取并识别出具体接触,例如具体终端用户的手指,如所注意到的,使得菜单实际上可以由一个终端用户打开,并且然后需要第二个终端用户通过与触发点交互来调用一具体特定动作。当然,可以采用触发点上的不同可识别接触来调用不同的动作,并且图像区域可以由一根手指来容易地导航,而不会用避开了触发点的用户手指来调用任何具体动作。当然,可以在每个图像区内设置一个以上的触发点,例如,图5的子菜单盒54,同时触发点和手指接触提供了可能响应的广泛结合。
在触发点可以潜在地调用例如图5所示的子菜单的激活的任何动作的范围内,应当理解的是,所述触发点能够将不同手指区分开,使得由不同手指调用的动作将创建不同的触发动作,并且这样的特征可以证实对于电子设备的可控交互来说特别有益。
具体地,尤其是当触摸屏包括由于例如大型船的全体船员而需要的多路接入的复杂控制***所用的界面时,在用户界面上的特定点处调用特定用户的特定动作的能力可以进一步特别显现出优点。于是可以在多用户环境内对大量用户容易地提供并且可靠地控制适当等级的安全性。
仍然以大型船为例,电子控制***可以被预设为使得:如果船长在船上的任何位置与触摸屏交互,只要进行了手指触摸,所述***就能够识别出船长正在进行触摸,使得可以通过该触摸屏容易地实现或接入适当安全等级的用户设置和权限。然而,例如,如果之后船上的厨师使用相同的或者完全不同的终端,并且即使这种接入是在船长的接入之后即刻发生的,船上的厨师也会被立即识别为正与触摸屏触合的用户,并且用户设置和权限将会相应地变化。
然而,当船长通过适当的控制脚本继续与该触摸屏触合时,在引起所需控制输入的方式和触点还形成了本实施例的用户确认机构的主要部分的范围内,该触摸屏继续识别出确实是船长仍旧与屏幕接触。
当具体终端用户正与触摸屏用户界面交互时,该终端用户的交互通常被看作为同时发生的,以便使得用户能够通过用户界面以更加简单的方式,例如用双手在“QWERTY”键盘上打字,来进行多种动作。这种同时多接触动作可以形成本实施例的重要特征,以及识别出独立的触摸屏接触的能力。
现在转向至图6,这里所描述的多接触脚本可以利用如图6中表格所示的映射表格来实现。
“主菜单”、“应用1”和“应用2”代表“环境”。手肢体、终端用户手指和拇指代表“接触介质”。环境和接触介质的连接现形了图6中箭头所示的特定动作。
如果接触介质再次包括手指和拇指,但是来自未识别出的终端用户,则显而易见的是,直到电子设备为那个用户配置,所述映射表格才是合适的。
在这样的脚本中,假定存在十个菜单,每个菜单由独有的数字限定,即,菜单1、菜单2……,菜单10。而且未识别出的终端用户具有由整组手指和拇指构成的十根手指。当它们开始用每根手指与触摸屏接触时,对每根手指赋予一个菜单,即将手指1赋予菜单1、手指2赋予菜单2等等。如果允许这样做,则以这种方式,电子设备现在可以为识别出的和未识别出的终端用户二者工作。
应当注意的是,终端用户的用户手指和拇指并非是仅有的可行接触介质。例如,可以使用不同的可识别笔,可以使用并识别来自不同个体的不同手,可以使用具有可识别标记的手套等等,并且如果需要则采用电子识别器和标签。为了使其能够对所有设备起作用,需要的是能够鉴别接触介质的类型并且对其映射一动作,否则将其视为未识别出的接触。
为了能够测量其特有的特性以随后识别它,不同的接触介质需要不同类型的传感器。
例如,如果使用了在笔尖中嵌入有不同RFID标签的“笔”,则可以通过使用RFID传感器/阅读器来识别各个笔。而且,RFID传感器可以与压力传感器结合,以测量笔的压力和位置。每个笔都可以具有不同的特性和作用,例如,如果环境是艺术形象,则具有不同的颜色。
现在转向至图7,该图7提供了一流程图,该流程图图示了根据本实施方式的触摸屏的实施例并且当形成了电子设备的一部分时的触摸屏的可能操作。
以步骤56开始,首先将设备布置成读取、记录和存储终端用户“详情”以及接触介质,诸如他们的手指和拇指的指纹详情的目录。
利用在步骤58是处于空闲状态中的设备,其随后在步骤60检测用户接触介质的接触点的出现,即他们的手指或拇指的其中一根的接触点的出现,并且经由步骤62判定这种检测处理,以在步骤64时判定接触点的详情是否是可识别出的。
如果,在步骤64中判定了它们是可识别出的,则处理经由步骤66而继续,以在步骤68时将相关数据作为特定事件动作来处理,并且在步骤70时基于所述判定处理任何当前运行的应用/功能/服务的特性。
然后在步骤72,将任何这种应用/功能/服务的具体环境详情映射到接触介质的识别出的详情,以便在步骤74调用适当的相应操作。
如果,在步骤60,没有检测到诸如用户手指这样的接触介质的存在,则处理的控制经由步骤76返回到空闲状态58。
如果在步骤64判定不能识别出诸如用户手指这样的接触介质,然后处理继续到步骤78以便证实来自用户的控制要求作为时间序列而不是基于任何具体预定的环境详情。在步骤78,然后可以将未来可能控制功能的选项呈现为能够根据需要选择的需要顺序,以便在步骤74实现适当的相应动作。
一旦已经完成了步骤74并且已经调用了适当的动作,则处理经由循环80而返回到其最初的空闲状态58。
从上述说明要理解的是,本实施例能够允许触摸屏界面有益地具有测量、记录和识别个体触摸屏接触的能力,并且其中每个个体可识别的接触都能够用于根据需要来调用特定的相应/动作。而且,上面描述的被识别为“触发点”的特定触摸屏区域可以被进一步呈现并且应用,以便能够进一步识别动作并且能够容易地支持当前多接触行为。设想本实施例可能提供给手持式触摸屏设备使用,通常例如是,移动电话、触摸屏监控器、触摸屏显示器、利用触摸敏感垫的大小交互显示器、触摸屏移动电话、电子书和触摸屏用户界面。
然而,应当理解的是,本实施方式并未以任何方式限定所述实施例的特征。
所谓的交互式电子纸、电子服饰和通常的交互式对象也可以类似地构成应用本实施方式的适当基础。
因此,可以理解的是,本实施方式的方法和***是基于通过内嵌的传感器来测量和记录触摸屏接触介质的特有特性以使得能够电子识别出由该介质的任何后续接触以便调用具体响应、功能和/或动作的理念。本实施方式有益地允许与适当分辨率的传感器触合的触摸屏设备测量并区分开操作者的各手指和拇指,并且可以通过触摸屏幕电子设备容易地实现这种生物数据的预先存储。
此外,可以提供经由单个的传感器或触摸设备或者传感器或触摸设备的结合存储可电子识别的接触介质,并且应当理解的是,所述接触介质可以潜在的是生物的、矿质的或者完全化学的,并且通常地,触摸屏仅仅需要进行适当的传感器技术并且允许特定识别特征。
当然,识别特定的识别可以用于调用任何适当的相应或动作,而不仅仅局限于用户界面上的图样或描绘的改变,而是可以涉及能够将屏幕界面和特征显示在屏幕上的电子设备/装置/***的任何方面的控制和功能。
本实施方式的一个示例性方面可以总结为如下:本实施方式提供了一种触摸屏,该触摸屏容易地允许多用户接入以及由单个用户的快速且有效的用户接入,其中,除了当被用户的例如用户手指或拇指这样的屏幕触合件触摸时识别之外,还将该屏幕设置为识别诸如用户手指和拇指指纹这样的要素的识别特征,使得将不同用户区分开,并且允许随后控制屏幕的至少一方面的操作,从而响应于所述要素的识别,任何设备/装置/***与其交互。
尽管已经具体示出了并且参考其示例性实施例描述了本发明,但是本发明并不局限于这些实施例。本领域技术人员可以理解的是,在不脱离由权利要求所限定的本发明的精神和范围内,可以对其进行形式和细节方面的各种修改。
引用的合并
本申请基于并且要求2009年5月18日提交的联合王国专利申请No.0908456.7的优先权益,并且其公开通过引用的方式全文结合于此。
工业实用性
本发明例如可以应用于触摸屏、相关的操作方法和***。

Claims (22)

1.一种触摸屏,该触摸屏被设置成当被用户的屏幕触合件触摸时进行判定,并且被进一步设置为识别所述触合件的识别特征,以便将不同的屏幕触合件区分开,并且其中,屏幕的至少一方面的后续操作响应于所述触合件的识别。
2.根据权利要求1所述的触摸屏,还包括:界面设备,该界面设备用于手持设备、便携设备、远程设备或***中任意一个或以上。
3.根据权利要求1或2所述的触摸屏,被设置为在包含有多用户设备/装置/***的多用户环境中使用。
4.根据权利要求1、2或3所述的触摸屏,被设置为与用户的屏幕触合件触合,该屏幕触合件是用户的手指和/或拇指的形式。
5.根据权利要求4所述的触摸屏,其中,所述屏幕触合件的所述识别特征包括生物数据。
6.根据权利要求5所述的触摸屏,其中,所述识别特征包括用户的手指/拇指指纹。
7.根据权利要求1、2或3所述的触摸屏,其中,所述屏幕触合件包括屏幕接触设备,该屏幕接触设备包括用于提供所述识别特征的装置。
8.根据权利要求7所述的触摸屏,其中,用于提供所述识别特征的所述装置包括电子设备。
9.根据权利要求8所述的触摸屏,其中,所述电子设备包括电子标签。
10.根据权利要求7、8或9所述的触摸屏,其中,所述屏幕触合件包括屏幕触合笔。
11.根据权利要求1-10的任意一项所述的触摸屏,其中,所述识别特征用于识别所述屏幕触合件。
12.根据权利要求1-11的任何一项所述的触摸屏,其中,所述识别特征用于识别屏幕用户。
13.根据权利要求1-12的任何一项所述的触摸屏,其中,所述至少一方面的后续操作包括显示屏幕的选项和提供预定的图像区。
14.根据权利要求13所述的触摸屏,其中,所述预定的图像区包括用于识别将不同屏幕触合件区分开的所述屏幕触合件的识别特征的至少一个区域。
15.根据权利要求14所述的触摸屏,其中,所述至少一个区域包括用于开始触摸屏的进一步响应的至少一个触发点。
16.根据权利要求14或15所述的触摸屏,其中,所述图像区和所述至少一个区域显示菜单树结构。
17.根据权利要求1-16的任何一项所述的触摸屏,其中,所述至少一方面的后续操作的包括与屏幕的或者与屏幕连接的设备/装置/***的功能选项和/或功能控制选项。
18.根据权利要求1-17的任何一项所述的触摸屏,其中,所述至少一方面包括用户向屏幕的接入和/或用户向与屏幕连接的设备/装置/***的接入。
19.根据权利要求18所述的触摸屏,其中,所述至少一方面的后续操作涉及在屏幕和/或与屏幕连接的设备/装置/***内的用户设置和/或权限。
20.根据权利要求1-19的任何一项所述的触摸屏,被进一步设置成捕捉一个以上的屏幕触合件的识别特征,用于随后在判定所述操作中使用。
21.一种多用户电子控制***,包括根据权利要求1-19的任何一项所述的触摸屏。
22.一种控制触摸屏的至少一方面操作的方法,包括:当被用户的屏幕触合件触摸时进行判定,并且包括识别所述触合件的识别特征以便将不同的屏幕触合件区分开的步骤,并且其中,响应于所述屏幕触合件的识别来控制所述至少一方面。
CN2010800217935A 2009-05-18 2010-05-14 触摸屏、相关的操作方法和*** Pending CN102428436A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB0908456.7A GB0908456D0 (en) 2009-05-18 2009-05-18 Touch screen, related method of operation and systems
GB0908456.7 2009-05-18
PCT/JP2010/058680 WO2010134615A1 (en) 2009-05-18 2010-05-14 Touch screen, related method of operation and system

Publications (1)

Publication Number Publication Date
CN102428436A true CN102428436A (zh) 2012-04-25

Family

ID=40834118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010800217935A Pending CN102428436A (zh) 2009-05-18 2010-05-14 触摸屏、相关的操作方法和***

Country Status (7)

Country Link
US (1) US20120075229A1 (zh)
EP (1) EP2433208A4 (zh)
JP (1) JP5590048B2 (zh)
KR (1) KR101432878B1 (zh)
CN (1) CN102428436A (zh)
GB (1) GB0908456D0 (zh)
WO (1) WO2010134615A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779010A (zh) * 2012-07-02 2012-11-14 中兴通讯股份有限公司 一种触摸屏多点触摸解锁的方法和移动终端
CN103135931A (zh) * 2013-02-06 2013-06-05 东莞宇龙通信科技有限公司 触摸操作方法及通信终端
CN103995661A (zh) * 2013-02-20 2014-08-20 腾讯科技(深圳)有限公司 利用手势触发应用程序或应用程序功能的方法及终端
CN104063094A (zh) * 2014-07-02 2014-09-24 南昌欧菲生物识别技术有限公司 具有指纹识别功能的触控屏、终端设备及指纹识别方法
CN104484078A (zh) * 2014-11-28 2015-04-01 华中科技大学 一种基于射频识别的人机交互***及方法
CN104571815A (zh) * 2014-12-15 2015-04-29 联想(北京)有限公司 一种显示窗口的匹配方法及电子设备
CN104981764A (zh) * 2013-02-08 2015-10-14 摩托罗拉解决方案公司 管理触摸屏设备上的用户接口元件的方法和装置
CN105045470A (zh) * 2014-04-30 2015-11-11 西门子公司 用于调取应用指令的方法、计算单元和医学成像***
CN108762547A (zh) * 2018-04-27 2018-11-06 维沃移动通信有限公司 一种触控终端的操作方法和移动终端

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9626099B2 (en) * 2010-08-20 2017-04-18 Avaya Inc. Multi-finger sliding detection using fingerprints to generate different events
GB2484551A (en) * 2010-10-15 2012-04-18 Promethean Ltd Input association for touch sensitive surface
KR101288251B1 (ko) * 2011-03-23 2013-07-26 엘지전자 주식회사 사용자 인터페이스 제공 방법 및 그를 이용한 영상 표시 장치
CN102594980A (zh) * 2011-12-19 2012-07-18 广东步步高电子工业有限公司 一种基于指纹识别技术的多级菜单显示方法及***
SG11201402915UA (en) 2012-01-10 2014-07-30 Neonode Inc Combined radio-frequency identification and touch input for a touch screen
US8863042B2 (en) * 2012-01-24 2014-10-14 Charles J. Kulas Handheld device with touch controls that reconfigure in response to the way a user operates the device
CN103246452A (zh) * 2012-02-01 2013-08-14 联想(北京)有限公司 一种切换手写输入中字符类型的方法及一种电子设备
CN103246457B (zh) * 2012-02-09 2016-05-04 宇龙计算机通信科技(深圳)有限公司 终端和应用程序的启动方法
JP6331022B2 (ja) * 2013-09-27 2018-05-30 パナソニックIpマネジメント株式会社 表示装置、表示制御方法、及び表示制御プログラム
US9501143B2 (en) 2014-01-03 2016-11-22 Eric Pellaton Systems and method for controlling electronic devices using radio frequency identification (RFID) devices
GB2522250A (en) * 2014-01-20 2015-07-22 Promethean Ltd Touch device detection
JP2015172799A (ja) * 2014-03-11 2015-10-01 アルプス電気株式会社 タッチ操作入力装置
JP6141796B2 (ja) * 2014-05-28 2017-06-07 京セラドキュメントソリューションズ株式会社 指示入力装置、画像形成装置、及び設定値入力プログラム
CN104282265B (zh) * 2014-09-26 2017-02-01 京东方科技集团股份有限公司 像素电路及其驱动方法、有机发光显示面板及显示装置
KR102093196B1 (ko) 2015-04-16 2020-04-14 삼성전자주식회사 지문 인식 기반 조작 방법 및 장치
CN104765552B (zh) 2015-04-28 2019-04-19 小米科技有限责任公司 权限管理方法和装置
CN104778923B (zh) * 2015-04-28 2016-06-01 京东方科技集团股份有限公司 一种像素电路及其驱动方法、显示装置
CN106200891B (zh) * 2015-05-08 2019-09-06 阿里巴巴集团控股有限公司 显示用户界面的方法、装置及***
KR101663909B1 (ko) * 2015-09-01 2016-10-07 한국과학기술원 전자 장치, 및 이의 동작 방법
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070052686A1 (en) * 2005-09-05 2007-03-08 Denso Corporation Input device
CN1940839A (zh) * 2005-09-28 2007-04-04 阿鲁策株式会社 输入设备
US20090028395A1 (en) * 2007-07-26 2009-01-29 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
CN101598987A (zh) * 2008-06-02 2009-12-09 华硕电脑股份有限公司 组态式指向操作装置与计算机***

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835079A (en) * 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US5856824A (en) * 1996-06-25 1999-01-05 International Business Machines Corp. Reshapable pointing device for touchscreens
JP2004030329A (ja) * 2002-06-26 2004-01-29 Nokia Corp スタイラスuiシステムおよびスタイラス
US20050193351A1 (en) 2002-08-16 2005-09-01 Myorigo, L.L.C. Varying-content menus for touch screens
US7454713B2 (en) 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
US7810050B2 (en) * 2005-03-28 2010-10-05 Panasonic Corporation User interface system
US20060274044A1 (en) 2005-05-11 2006-12-07 Gikandi David C Whole hand computer mouse with a button for each finger
JP2007334669A (ja) * 2006-06-15 2007-12-27 Nec System Technologies Ltd 個人データ管理装置、個人データ管理方法、プログラム、及び記録媒体
JP2008046692A (ja) * 2006-08-10 2008-02-28 Fujitsu Ten Ltd 入力装置
JP4899806B2 (ja) * 2006-11-08 2012-03-21 トヨタ自動車株式会社 情報入力装置
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US9035886B2 (en) * 2008-05-16 2015-05-19 International Business Machines Corporation System and apparatus for a multi-point touch-sensitive sensor user interface using distinct digit identification
KR101004463B1 (ko) * 2008-12-09 2010-12-31 성균관대학교산학협력단 터치 스크린의 드래그를 이용한 메뉴 선택을 지원하는 휴대용 단말 및 그 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070052686A1 (en) * 2005-09-05 2007-03-08 Denso Corporation Input device
CN1940839A (zh) * 2005-09-28 2007-04-04 阿鲁策株式会社 输入设备
US20090028395A1 (en) * 2007-07-26 2009-01-29 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
CN101598987A (zh) * 2008-06-02 2009-12-09 华硕电脑股份有限公司 组态式指向操作装置与计算机***

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779010A (zh) * 2012-07-02 2012-11-14 中兴通讯股份有限公司 一种触摸屏多点触摸解锁的方法和移动终端
CN102779010B (zh) * 2012-07-02 2017-06-06 南京中兴软件有限责任公司 一种触摸屏多点触摸解锁的方法和移动终端
CN103135931A (zh) * 2013-02-06 2013-06-05 东莞宇龙通信科技有限公司 触摸操作方法及通信终端
CN103135931B (zh) * 2013-02-06 2016-12-28 东莞宇龙通信科技有限公司 触摸操作方法及通信终端
CN104981764A (zh) * 2013-02-08 2015-10-14 摩托罗拉解决方案公司 管理触摸屏设备上的用户接口元件的方法和装置
CN103995661A (zh) * 2013-02-20 2014-08-20 腾讯科技(深圳)有限公司 利用手势触发应用程序或应用程序功能的方法及终端
CN105045470A (zh) * 2014-04-30 2015-11-11 西门子公司 用于调取应用指令的方法、计算单元和医学成像***
CN104063094A (zh) * 2014-07-02 2014-09-24 南昌欧菲生物识别技术有限公司 具有指纹识别功能的触控屏、终端设备及指纹识别方法
CN104063094B (zh) * 2014-07-02 2017-05-10 南昌欧菲生物识别技术有限公司 具有指纹识别功能的触控屏、终端设备及指纹识别方法
CN104484078A (zh) * 2014-11-28 2015-04-01 华中科技大学 一种基于射频识别的人机交互***及方法
CN104484078B (zh) * 2014-11-28 2017-09-15 华中科技大学 一种基于射频识别的人机交互***及方法
CN104571815A (zh) * 2014-12-15 2015-04-29 联想(北京)有限公司 一种显示窗口的匹配方法及电子设备
CN104571815B (zh) * 2014-12-15 2019-10-29 联想(北京)有限公司 一种显示窗口的匹配方法及电子设备
CN108762547A (zh) * 2018-04-27 2018-11-06 维沃移动通信有限公司 一种触控终端的操作方法和移动终端
CN108762547B (zh) * 2018-04-27 2021-09-21 维沃移动通信有限公司 一种触控终端的操作方法和移动终端

Also Published As

Publication number Publication date
KR101432878B1 (ko) 2014-08-26
US20120075229A1 (en) 2012-03-29
EP2433208A4 (en) 2013-01-23
JP2012527657A (ja) 2012-11-08
WO2010134615A1 (en) 2010-11-25
JP5590048B2 (ja) 2014-09-17
EP2433208A1 (en) 2012-03-28
GB0908456D0 (en) 2009-06-24
KR20120020122A (ko) 2012-03-07

Similar Documents

Publication Publication Date Title
CN102428436A (zh) 触摸屏、相关的操作方法和***
US8619034B2 (en) Sensor-based display of virtual keyboard image and associated methodology
US7692637B2 (en) User input device for electronic device
EP3299938B1 (en) Touch-sensitive button with two levels
KR101070111B1 (ko) 복수의 터치 감지 장치를 가지는 핸드 헬드 전자 장치
CN102981687B (zh) 双面轨迹板
US8248386B2 (en) Hand-held device with touchscreen and digital tactile pixels
US20160246444A1 (en) Method and apparatus for detecting lift off on a touchscreen
US20140293165A1 (en) User input apparatus, computer connected to user input apparatus, and control method for computer connected to user input apparatus, and storage medium
US20110260976A1 (en) Tactile overlay for virtual keyboard
US20130154999A1 (en) Multi-Surface Touch Sensor Device With User Action Detection
US20070236474A1 (en) Touch Panel with a Haptically Generated Reference Key
US20030016211A1 (en) Kiosk touchpad
CN102483677A (zh) 信息处理设备、信息处理方法以及程序
US20080284723A1 (en) Physical User Interface
US8970498B2 (en) Touch-enabled input device
US20110248946A1 (en) Multi-mode prosthetic device to facilitate multi-state touch screen detection
US20120075202A1 (en) Extending the touchable area of a touch screen beyond the borders of the screen
CN107407998B (zh) 与实现电容控制表面和外周表面的电子和/或计算机设备进行交互的方法,实现该方法的界面和设备
JP6740389B2 (ja) ハンドヘルド電子デバイスのための適応的ユーザ・インターフェース
JP6154148B2 (ja) 入力操作装置、表示装置、および、コマンド選択方法
JP4080498B2 (ja) タッチパネルのインテリジェントタイプ移動の制御方法
ZA200606432B (en) Physical user interface
AU2005212534B2 (en) Physical user interface
EP3133525A1 (en) Capacitive information carrier comprising an activation area

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: LENOVO INNOVATION CO., LTD. (HONGKONG)

Free format text: FORMER OWNER: NEC CORP.

Effective date: 20141115

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; TO: HONG KONG, CHINA

TA01 Transfer of patent application right

Effective date of registration: 20141115

Address after: Hongkong, China

Applicant after: LENOVO INNOVATIONS Co.,Ltd.(HONG KONG)

Address before: Tokyo, Japan

Applicant before: NEC Corp.

C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20120425