CN105190516B - 在多手指触摸交互期间的平移和缩放的检测 - Google Patents
在多手指触摸交互期间的平移和缩放的检测 Download PDFInfo
- Publication number
- CN105190516B CN105190516B CN201380075632.8A CN201380075632A CN105190516B CN 105190516 B CN105190516 B CN 105190516B CN 201380075632 A CN201380075632 A CN 201380075632A CN 105190516 B CN105190516 B CN 105190516B
- Authority
- CN
- China
- Prior art keywords
- user
- point
- input
- biology
- radial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
在一个实施例中,图形显示设备可使用一组一个或多个阈值来从使用多个手指的平移输入移除缩放动作。图形显示设备可接收具有至少第一生物点210和第二生物点210的在用户移动界面中的用户输入。图形显示设备可从用户输入检测平移动作。图形显示设备可基于缩放阈值从用户输入滤除缩放动作。图形显示设备可向用户显现图形用户界面的平移。
Description
背景技术
计算设备的输入机制在所提供的交互的复杂度和易用性方面增强。触摸屏可允许用户使用仅仅单个手指在图形用户界面中容易地平移和缩放。例如,用户可将手指放置在触摸屏上并横越屏幕拖手指,指示平移。此外,用户可双击屏幕以指示在图像上的缩小是期望的。
发明内容
这个发明内容被提供来以简化的形式介绍一系列概念,其在具体实施方式中在下面被进一步描述。这个发明内容并不打算识别所主张的主题的关键特征或必要特征,也不打算用于限制所主张的主题的范围。
下面讨论的实施例涉及使用一组一个或多个阈值来从使用多个手指的平移输入移除缩放动作。图形显示设备可在具有至少第一生物点和第二生物点的用户移动界面中接收用户输入。图形显示设备可从用户输入检测平移动作。图形显示设备可基于缩放阈值从用户输入滤除缩放动作。图形显示设备可向用户显现图形用户界面的平移。
附图说明
为了描述上面记载的和其它优点和特征可被得到的方式,更特别的描述被阐述且将通过参考在附图中图示的其特定实施例而被描绘。在理解这些附图只描绘典型实施例且因此不应被考虑为其范围的限制后,将通过附图的使用以额外的具体性和细节描述和解释实施方式。
图1在方框图中图示计算设备的一个实施例。
图2a-b在方框图中图示与用户界面的多手指交互的一个实施例。
图3在方框图中图示表示多手指用户输入交互的状态机的一个实施例。
图4在流程图中图示接收图形用户界面的用户输入的方法的一个实施例。
图5在流程图中图示检测平移动作的方法的一个实施例。
图6在流程图中图示确定径向差别的方法的一个实施例。
图7在流程图中图示计算速度比的方法的一个实施例。
具体实施方式
下面详细讨论实施例。虽然讨论了具体的实施方式,应理解,这仅为了例证目的而完成。相关领域中的技术人员将认识到,可使用其它部件和配置而不偏离本公开的主题的精神和范围。实施方式可以是机器实施的方法、有形机器可读介质(其具有存储在其上的用于至少一个处理器的详述方法的一组指令)、或图形显示设备。
用户有时可在触摸屏上平移图形用户界面。平移是图形用户界面的视觉框架的线性动作以观看超过视觉框架的内容。视觉框架是用户在触摸屏上可见的图形用户界面的部分。用户可横越触摸屏滑动一个或多个手指以指示平移动作输入。
用户有时可在触摸屏上的图形用户界面上缩小或放大。缩放是图形用户界面的视觉框架的扩张或收缩以观看超过视觉框架的内容或更接近地看内容。用户可在触摸屏上将手指分开或将手指合拢以指示缩放动作输入。
如果用户使用多个手指来指示在触摸屏上的平移动作,则用户可能意外地指示缩放动作。如果缩放动作没有达到缩放阈值,例如差别阈值或比率阈值,图形显示设备可从用户输入滤除缩放动作。
图形显示设备可计算表示在一个或多个手指之间的变化的距离的径向差别。对于任何操纵,图形显示设备可计算表示在屏幕上的接触的输入形状。径向差别是自从第一操纵器事件以来在输入形状的输入半径中的变化。当使用多个手指执行平移时,用户可能总是引起在接触之间的距离的较小变化,导致输入形状扩张或收缩。这些变化可导致径向差别值的小变化,但当径向差别低于差别阈值时,图形显示设备可保持缩放不变。当接触的数量改变时,图形显示设备可将初始输入形状重置到新输入形状。
替代地,图形显示设备可计算与平移速度比较的径向速度。径向速度是输入半径改变的速度。x速度和y速度是输入形状的中心点在水平和垂直方向上移动的速度。图形显示设备可组合这些值以计算在二维空间中的线性中心点速度。图形显示设备可将指数平滑化应用于径向速度与平移速度之比。如果这个平滑的扩张比小于比率阈值,则图形显示设备可保持缩放不变。
例如,
(线性速度)2 = (x速度)2 + (y速度)2
;其中α定义平滑因子。
<阈值—>锁定的缩放。
如果线性速度是零,则可被认为大于比率阈值,并且缩放可被使能。在这种情况下,图形显示设备可将N(t)设置为非常大的数字(>最大自然数N(t)),使得衰退可继续被计算。
图形显示设备可使用OR逻辑实施差别阈值比较和比率阈值比较。如果任一阈值未被满足,图形显示设备可滤除缩放动作。
因此在一个实施例中,图形显示设备可使用一组一个或多个阈值来从使用多个手指的平移输入移除缩放动作。图形显示设备可接收具有至少第一生物点和第二生物点的在用户移动界面中的用户输入。图形显示设备可从用户输入检测平移动作。图形显示设备可基于缩放阈值从用户输入滤除缩放动作。图形显示设备可向用户显现图形用户界面的平移。
图1图示可充当图形显示设备的示例性计算设备100的方框图。计算设备100可组合硬件、软件、固件和片上***技术中的一个或多个以实施图形显示设备。计算设备100可包括总线110、处理器120、存储器130、数据储存器140、输入设备150、输出设备160和通信接口170。总线110或其它部件互连可允许在计算设备100的部件当中的通信。
处理器120可包括解析并执行一组指令的至少一个常规处理器或微处理器。存储器130可以是随机存取存储器(RAM)或存储信息和用于由处理器120执行的指令的另一类型的动态数据储存器。存储器130也可存储在由处理器120执行指令期间使用的临时变量或其它中间信息。数据储存器140可包括常规ROM设备或存储用于处理器120的静态信息和指令的另一类型的静态数据储存器。数据储存器140可包括任一类型的有形机器可读介质,例如磁性或光学记录介质,例如数字视频盘及其对应的驱动器。有形机器可读介质是存储机器可读代码或指令的物理介质,与信号相反。使指令存储在如本文描述的计算机可读介质上与使指令传播或传输可区分开,因为传播传送指令,与例如对存储有指令的计算机可读介质可出现的存储指令相对。因此,除非另外提到,对存储有指令的计算机可读介质的提及在这个或类似的形式中指其上可存储或保留数据的有形介质。数据储存器140可存储详述方法的一组指令,其当被一个或多个处理器执行时使一个或多个处理器执行该方法。数据储存器140也可以是数据库或数据库接口。
输入设备150可包括允许用户将信息输入到计算设备100的一个或多个常规机构,例如键盘、鼠标、语音识别设备、麦克风、耳机、触摸屏152、轨迹板154、手势识别设备156等。输出设备160可包括向用户输出信息的一个或多个常规机构,包括显示器162、打印机、一个或多个扬声器、耳机或介质,例如存储器或磁盘或光盘和对应的盘驱动器。触摸屏152也可充当显示器162,而轨迹板154仅接收输入。通信接口170可包括使计算设备100能够与其它设备或网络通信的任何收发机式机构。通信接口170可包括网络接口或收发机接口。通信接口170可以是无线、有线或光学接口。
计算设备100可响应于处理器120执行包含在计算机可读介质(例如存储器130、磁盘或光盘)中的指令的序列而执行这样的功能。这样的指令可从另一计算机可读介质(例如数据储存器140)或从单独的设备经由通信接口170被读取到存储器130内。
图2a在方框图中图示与用户界面的前驱多手指交互200的一个实施例。用户可将一个或多个手指放置在触摸屏152或轨迹板154上。这些手指中的每个可充当生物点210。生物点210是物理地连接到用户的参考点,用户移动界面可检测该参考点以接收用户输入。手势捕获设备156也可使用一个或多个生物点210来确定用户输入,例如用户的手、臂、腿、脸或假体。
用户移动界面(例如触摸屏152、轨迹板154或手势捕获设备156)可使用多个生物点210来创建表示用户输入的输入形状220,例如圆形或多边形。例如,用户可将两个手指放置在用户移动界面上,创建第一生物点210和第二生物点210。用户移动界面可创建圆的输入形状210,使得第一生物点210和第二生物点创建穿过圆的中心点平分圆的直径。
在另一例子中,用户可将三个手指放置在用户移动界面上。这三个手指可创建第一生物点210、第二生物点210和第三生物点210。用户移动界面可创建圆或其它形式的椭圆的输入形状220,这三个生物点210每个存在于圆的周边上。替代地,用户移动界面可创建三角形的输入形状220,这三个生物点210存在于三角形的角处。用户移动界面可使用额外的生物点210来创建其它输入形状220,例如具有四个生物点210的四边形或具有五个生物点210的五边形。
用户移动界面可确定输入形状220的中心点230。中心点230可以离每个生物点210是相对等距离的。用户移动界面可跟踪中心点230以基于中心点230的移动检测平移动作。中心点230移动的速度也可被跟踪以计算中心点速度。用户移动界面可计算输入形状220的输入半径240,其表示在中心点230和生物点210之间的距离。
图2b在方框图中图示与用户界面的后继多手指交互250的一个实施例。用户可移动一个或多个手指,使输入半径240扩张或收缩。输入半径240的这个变化可以指半径差别260。半径差别260可用于确定在图形用户界面上是缩小还是放大。用户移动界面也可跟踪输入形状220的半径速度,以确定输入半径240扩张或收缩的速度。半径速度可除以中心点速度或平移速度以确定速度比。
图3在方框图中图示表示多手指用户输入交互的状态机300的一个实施例。如果用户使用单个生物点210例如手指,则用户移动界面可以在单生物点平移状态302中。如果用户在生物点增加304中添加生物点210,则用户移动界面可改变到多点平移状态306。从多点平移状态306,如果用户在生物点减少308中减少生物点210,则用户移动界面可改变回到单点平移状态302。
从多点平移状态306,如果径向差别小于差别阈值(RD<DT)且速度比小于比率阈值(VR<RT)310,则用户移动界面可停留在多点平移状态306中。从多点平移状态306,如果径向差别小于差别阈值(RD<DT)且速度比大于比率阈值(VR>RT)312,则用户移动界面可停留在多点平移状态306中。从多点平移状态306,如果径向差别大于差别阈值(RD>DT)且速度比小于比率阈值(VR<RT)314,则用户移动界面可停留在多点平移状态306中。从多点平移状态306,如果径向差别大于差别阈值(RD>DT)且速度比大于比率阈值(VR>RT)316,则用户移动界面可改变到多点平移和缩放状态318中。
从多点平移和缩放状态318,如果速度比大于比率阈值(VR>RT)320,则用户移动界面可停留在多点平移和缩放状态318中。从多点平移和缩放状态318,如果速度比小于比率阈值(VR<RT)322,则用户移动界面可返回到多点平移状态306。从多点平移和缩放状态318,如果用户在生物点减少324中减少生物点210,则用户移动界面可返回到单点平移状态302。
图4在流程图中图示接收用户移动界面的用户输入的方法400的一个实施例。图形显示设备可接收具有至少第一生物点210和第二生物点210的在用户移动界面中的用户输入(块402)。图形显示设备可从用户输入检测平移动作(块404)。图形显示设备可基于用户输入来确定平移动作(块406)。图形显示设备可从平移动作检测平移矢量(块408)。图形显示设备可沿着平移矢量为平移动作设定轨道(块410)。为平移动作设定轨道将平移动作锁定在平移矢量的方向上移动。图形显示设备可计算表示用户输入的输入形状的径向差别360(块412)。图形显示设备可比较径向差别360与差别阈值(块414)。如果径向差别360大于差别阈值(块416),则图形显示设备可基于中心点速度和径向速度计算速度比(块418)。图形显示设备可比较速度比与比率阈值(块420)。如果速度比小于比率阈值(块422),则图形显示设备可基于缩放阈值从用户输入滤除缩放动作(块424)。图形显示设备可向用户显现图形用户界面的平移(块426)。
图形显示设备可维护用于优化差别阈值的差别历史(块428)。比率历史可跟踪径向差别以及是否径向差别超过差别阈值。图形显示设备可维护用于优化比率阈值的比率历史(块430)。比率历史可跟踪速度比以及是否速度比超过比率阈值。差别历史和比率历史可通过重新输入确定的缩放动作来跟踪用户是否坚持完成输入,指示缩放是或不是最初预期的。图形显示设备可使用差别历史来调节差别阈值。图形显示设备可使用比率历史来调节比率阈值。
图5在流程图中图示检测平移动作的方法500的一个实施例。图形显示设备可检测在用户输入中的第一生物点210和第二生物点210(块502)。图像显示设备可检测在用户输入中的第三生物点210(块504)。图形显示设备可基于至少第一生物点210和第二生物点210确定输入形状220(块506)。图形显示设备可确定输入形状220的中心点230(块508)。图形显示设备可基于来自至少第一生物点210和第二生物点210的输入形状的中心点动作来计算来自用户输入的平移动作(块510)。
图6在流程图中图示确定径向差别的方法600的一个实施例。图形显示设备可检测在用户输入中的第一生物点210和第二生物点210(块602)。图像显示设备可检测在用户输入中的第三生物点210(块604)。图形显示设备可基于至少第一生物点210和第二生物点210确定输入形状220(块606)。图形显示设备可确定输入形状220的中心点230(块608)。图形显示设备可计算输入形状220的径向差别260(块610)。
图7在流程图中图示计算速度比的方法700的一个实施例。图形显示设备可检测在用户输入中的第一生物点210和第二生物点210(块702)。图像显示设备可检测在用户输入中的第三生物点210(块704)。图形显示设备可基于至少第一生物点210和第二生物点210确定输入形状220(块706)。图形显示设备可确定输入形状220的中心点230(块708)。图形显示设备可基于中心点速度计算平移速度(块710)。图形显示设备可计算输入形状220的径向速度(块712)。图形显示设备可基于中心点速度和径向速度计算速度比(块714)。
虽然以结构特征和/或方法行动特有的语言描述了主题,应理解,在所附权利要求中的主题并不一定限于上面描述的特定的特征或行动。更确切地,上面描述的特定的特征和行动被公开为用于实施权利要求的示例形式。
在本发明的范围内的实施例还可包括计算机可读存储介质,其用于承载或具有在其上存储的计算机可执行指令或数据结构。这样的计算机可读存储介质可以是可由通用或专用计算机访问的任何可用介质。作为例子而不是限制,这样的计算机可读存储介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘储存器、磁盘储存器或其他磁性数据储存器或可用于承载或存储以计算机可执行指令或数据结构的形式的期望程序代码模块的任何其它介质。上述的组合也可包括在计算机可读存储介质的范围内。
实施例还可在分布式计算环境中被实践,其中任务由通过通信网络链接(通过硬连线链路、无线链路或通过其组合)的本地和远程处理设备执行。
计算机可执行指令包括例如使通用计算机、专用计算机或专用处理设备执行某个功能或功能组的指令和数据。计算机可执行指令还包括由计算机在单独或网络环境中执行的程序模块。通常,程序模块包括执行特定的任务或实施特定的抽象数据类型的例程、程序、对象、组件和数据结构等。计算机可执行指令、相关数据结构和程序模块代表用于执行本文公开的方法的步骤的程序代码模块的例子。这样的可执行指令或相关数据结构的特定序列代表用于实施在这样的步骤中描述的功能的对应行动的例子。
虽然上面的描述可包含特定的细节,它们不应被解释为以任何方式限制权利要求。所述实施例的其它配置是本公开的范围的部分。例如,本公开的原理可应用于每个个体的用户,其中每个用户可个体地部署这样的***。这使每个用户能够利用本公开的益处,即使大量可能的应用中的任一个并不使用本文描述的功能。电子设备的多个实例每个可以用各种可能的方式处理内容。实施方式并不一定在由所有最终用户使用的一个***中。相应地,应当仅所附权利要求及其法律等效形式限定本发明,而不是所给出的任何具体的例子。
Claims (10)
1.一种用于图形显示的方法,包括:
接收具有至少第一生物点和第二生物点的在用户移动界面中的用户输入;
从所述用户输入检测指示视觉框架的线性动作的平移动作,线性速度指示所述线性动作的线性速率;
检测第一生物点和第二生物点之间的变化的距离,其表示视觉框架的扩张和收缩中的至少一个的缩放动作,径向速度指示所述缩放动作的径向速率;
计算在第一时间处所述第一生物点和所述第二生物点之间的所述变化的距离的第一值与在第二时间处所述第一生物点和所述第二生物点之间的所述变化的距离的第二值之间的径向差别;
比较所述径向差别与差别阈值;
确定所述径向速度与所述线性速度的速度比率;
比较所述速度比率与比率阈值;
当所述径向差别低于所述差别阈值或所述速度比率低于所述比率阈值时,从所述用户输入移除所述缩放动作并且基于所述平移动作以及所述缩放动作的移除,显示图形用户界面的平移;以及
如果所述径向差别高于所述差别阈值并且所述速度比率高于所述比率阈值,向所述用户显现所述图形用户界面的平移和缩放。
2.如权利要求1所述的方法,还包括:
其中接收所述用户输入包括接收至少第三生物点;
其中检测所述变化的距离还包括:至少基于所述用户输入中的所述第一生物点、所述第二生物点和所述第三生物点计算输入形状,所述输入形状具有表示所述缩放动作的输入半径,使得所述径向速度表示所述输入半径的改变的速率;
确定所述输入形状的中心点;以及
基于所述输入形状的所述中心点的线性移动来计算所述线性速度。
3.如权利要求1所述的方法,还包括:
至少基于所述第一生物点和所述第二生物点来确定输入形状;
确定所述输入形状的中心点;以及
基于所述输入形状的所述中心点的移动来计算所述平移动作。
4.如权利要求1所述的方法,其中从所述用户输入移除所述缩放动作还基于所述径向差别低于所述差别阈值。
5.如权利要求1所述的方法,其中从所述用户输入移除所述缩放动作还基于所述径向差别高于所述差别阈值。
6.如权利要求1所述的方法,还包括:
计算所述输入形状的所述径向速度;以及
基于中心点速度和所述径向速度来计算所述速度比率。
7.如权利要求1所述的方法,还包括:
从所述平移动作检测平移矢量;以及
沿着所述平移矢量为所述平移动作设定轨道。
8.一种有形机器可读介质,其具有存储在其上的详述方法的一组指令,所述指令在由一个或多个处理器执行时使所述一个或多个处理器执行所述方法,所述方法包括:
接收具有至少第一生物点和第二生物点的在用户移动界面中的用户输入;
基于来自至少所述第一生物点和所述第二生物点的输入形状的中心点移动从所述用户输入计算指示视觉框架的线性动作的平移动作,线性速度指示所述线性动作的线性速率;
检测第一生物点和第二生物点之间的变化的距离,其表示视觉框架的扩张和收缩中的至少一个的缩放动作,径向速度指示所述缩放动作的径向速率;
计算在第一时间处所述第一生物点和所述第二生物点之间的所述变化的距离的第一值与在第二时间处所述第一生物点和所述第二生物点之间的所述变化的距离的第二值之间的径向差别;
比较所述径向差别与差别阈值;
确定所述径向速度与所述线性速度的速度比率;
比较所述速度比率与比率阈值;
当所述径向差别低于所述差别阈值或所述速度比率低于所述比率阈值时,从所述用户输入移除所述缩放动作并且基于所述平移动作以及所述缩放动作的移除,显示图形用户界面的平移;以及
如果所述径向差别高于所述差别阈值并且所述速度比率高于所述比率阈值,向所述用户显现所述图形用户界面的平移和缩放。
9.一种图形显示设备,包括:
输入设备,其被配置成接收具有至少第一生物点和第二生物点的用户输入;
处理器,其被配置成
从所述用户输入检测指示视觉框架的线性动作的平移动作;
基于第一生物点和第二生物点确定输入形状;
确定输入形状的中心点;
检测第一生物点和第二生物点之间的变化的距离,其表示视觉框架的扩张和收缩中的至少一个的缩放动作,径向速度指示所述缩放动作的径向速率;
计算在第一时间处所述第一生物点和所述第二生物点之间的所述变化的距离的第一值与在第二时间处所述第一生物点和所述第二生物点之间的所述变化的距离的第二值之间的径向差别;
比较所述径向差别和差别阈值;
基于中心点的中心点速度和输入形状的所述径向速度计算速度比率;
比较所述速度比率和比率阈值;以及
当所述径向差别低于所述差别阈值或所述速度比率低于所述比率阈值时,从所述用户输入移除指示视觉框架的扩张和收缩中的至少一个的缩放动作并且基于所述平移动作和所述缩放动作的移除,显示图形用户界面的平移;以及
显示器,其被配置成如果所述径向差别高于所述差别阈值并且所述速度比率高于所述比率阈值,向所述用户显现所述图形用户界面的平移和缩放。
10.如权利要求9所述的图形显示设备,其中所述输入设备是触摸屏、轨迹板和手势识别设备中的至少一个。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/862,489 US9910579B2 (en) | 2013-04-15 | 2013-04-15 | Detection of pan and scaling during multi-finger touch interactions |
US13/862489 | 2013-04-15 | ||
PCT/US2013/058665 WO2014171961A1 (en) | 2013-04-15 | 2013-09-09 | Detection of pan and scaling during multi-finger touch interactions |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105190516A CN105190516A (zh) | 2015-12-23 |
CN105190516B true CN105190516B (zh) | 2019-03-08 |
Family
ID=49261744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380075632.8A Active CN105190516B (zh) | 2013-04-15 | 2013-09-09 | 在多手指触摸交互期间的平移和缩放的检测 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9910579B2 (zh) |
EP (1) | EP2987069B1 (zh) |
JP (1) | JP6212201B2 (zh) |
KR (1) | KR102086193B1 (zh) |
CN (1) | CN105190516B (zh) |
TW (1) | TW201439885A (zh) |
WO (1) | WO2014171961A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102210045B1 (ko) * | 2013-12-12 | 2021-02-01 | 삼성전자 주식회사 | 전자장치의 입력 제어장치 및 방법 |
US11023050B2 (en) | 2016-11-25 | 2021-06-01 | Sony Corporation | Display control device, display control method, and computer program |
JP6227213B1 (ja) * | 2017-03-15 | 2017-11-08 | 三菱電機株式会社 | タッチジェスチャ判定装置、タッチジェスチャ判定方法、タッチジェスチャ判定プログラム、及びタッチパネル入力装置 |
JP7191792B2 (ja) * | 2019-08-23 | 2022-12-19 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102341814A (zh) * | 2009-01-05 | 2012-02-01 | 智能技术无限责任公司 | 姿势识别方法和采用姿势识别方法的交互式输入*** |
TW201222344A (en) * | 2010-11-16 | 2012-06-01 | Elan Microelectronics Corp | Method for continuing a multi-finger gesture on a touch panel |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2256605B1 (en) | 1998-01-26 | 2017-12-06 | Apple Inc. | Method and apparatus for integrating manual input |
US7075513B2 (en) | 2001-09-04 | 2006-07-11 | Nokia Corporation | Zooming and panning content on a display screen |
US7770135B2 (en) | 2002-10-18 | 2010-08-03 | Autodesk, Inc. | Tracking menus, system and method |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US7825797B2 (en) * | 2006-06-02 | 2010-11-02 | Synaptics Incorporated | Proximity sensor device and method with adjustment selection tabs |
JP2008070968A (ja) | 2006-09-12 | 2008-03-27 | Funai Electric Co Ltd | 表示処理装置 |
US8059101B2 (en) | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
US8368646B2 (en) * | 2007-12-07 | 2013-02-05 | Robert Welland | User interface devices |
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
DE202009019125U1 (de) | 2008-05-28 | 2016-12-05 | Google Inc. | Bewegungsgesteuerte Ansichten auf mobilen Computergeräten |
US8176438B2 (en) | 2008-09-26 | 2012-05-08 | Microsoft Corporation | Multi-modal interaction for a screen magnifier |
US8427440B2 (en) * | 2009-05-05 | 2013-04-23 | Microsoft Corporation | Contact grouping and gesture recognition for surface computing |
US9400548B2 (en) * | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
JP5852514B2 (ja) | 2012-06-13 | 2016-02-03 | 株式会社東海理化電機製作所 | タッチセンサ |
WO2014014806A1 (en) * | 2012-07-15 | 2014-01-23 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3d interaction |
TWI456458B (zh) * | 2012-09-03 | 2014-10-11 | Acer Inc | 電子裝置以及相關之控制方法 |
US9235338B1 (en) * | 2013-03-15 | 2016-01-12 | Amazon Technologies, Inc. | Pan and zoom gesture detection in a multiple touch display |
-
2013
- 2013-04-15 US US13/862,489 patent/US9910579B2/en active Active
- 2013-09-09 CN CN201380075632.8A patent/CN105190516B/zh active Active
- 2013-09-09 EP EP13770539.8A patent/EP2987069B1/en active Active
- 2013-09-09 KR KR1020157029427A patent/KR102086193B1/ko active IP Right Grant
- 2013-09-09 JP JP2016507529A patent/JP6212201B2/ja active Active
- 2013-09-09 WO PCT/US2013/058665 patent/WO2014171961A1/en active Application Filing
- 2013-09-11 TW TW102132827A patent/TW201439885A/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102341814A (zh) * | 2009-01-05 | 2012-02-01 | 智能技术无限责任公司 | 姿势识别方法和采用姿势识别方法的交互式输入*** |
TW201222344A (en) * | 2010-11-16 | 2012-06-01 | Elan Microelectronics Corp | Method for continuing a multi-finger gesture on a touch panel |
Also Published As
Publication number | Publication date |
---|---|
US20140310625A1 (en) | 2014-10-16 |
KR102086193B1 (ko) | 2020-03-06 |
JP2016515741A (ja) | 2016-05-30 |
WO2014171961A1 (en) | 2014-10-23 |
US9910579B2 (en) | 2018-03-06 |
EP2987069A1 (en) | 2016-02-24 |
EP2987069B1 (en) | 2020-09-16 |
JP6212201B2 (ja) | 2017-10-11 |
KR20150143495A (ko) | 2015-12-23 |
CN105190516A (zh) | 2015-12-23 |
TW201439885A (zh) | 2014-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107077197B (zh) | 3d可视化图 | |
KR102297330B1 (ko) | 화면 제어 방법 및 그 방법을 처리하는 전자 장치 | |
US9384420B2 (en) | Classifying user activities using eye fixation clustering, fixation features, and regions of interest | |
US8781991B2 (en) | Emotion recognition apparatus and method | |
US10359905B2 (en) | Collaboration with 3D data visualizations | |
EP3491493A1 (en) | Gesture based control of autonomous vehicles | |
CN105190516B (zh) | 在多手指触摸交互期间的平移和缩放的检测 | |
Lee et al. | Finger identification and hand gesture recognition techniques for natural user interface | |
US10001907B2 (en) | Flow fields | |
CN109656457A (zh) | 多指触控方法、装置、设备及计算机可读存储介质 | |
Patil et al. | Handwriting recognition in free space using WIMU‐based hand motion analysis | |
US20170315615A1 (en) | Gesture library | |
JP2021131875A (ja) | 自動入力探知方法およびシステム | |
CN106547339B (zh) | 计算机设备的控制方法和装置 | |
US20170168581A1 (en) | Method and Device for Controlling Operation Components Based on Somatosensory | |
CN105446576B (zh) | 一种信息处理方法及电子设备 | |
US20170372255A1 (en) | Interaction analysis | |
Liao et al. | Fall detection by a svm-based cloud system with motion sensors | |
US20160266764A1 (en) | User interaction with information handling systems using physical objects | |
KR101580397B1 (ko) | 안구 운동을 사용하는 디바이스의 제어 장치 및 방법 | |
Hirabe et al. | Touchanalyzer: A system for analyzing user’s touch behavior on a smartphone | |
Raya et al. | Semantic segmentation in egocentric video frames with deep learning for recognition of activities of daily living | |
US20140096073A1 (en) | Zero touch exploration for mobile device | |
JP2020190861A (ja) | 画像検索装置、画像検索方法 | |
Kim et al. | Depth-based real-time hand tracking with occlusion handling using kalman filter and dam-shift |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |