CN102411471B - 与供显示的数据集交互的方法与*** - Google Patents
与供显示的数据集交互的方法与*** Download PDFInfo
- Publication number
- CN102411471B CN102411471B CN201110227908.2A CN201110227908A CN102411471B CN 102411471 B CN102411471 B CN 102411471B CN 201110227908 A CN201110227908 A CN 201110227908A CN 102411471 B CN102411471 B CN 102411471B
- Authority
- CN
- China
- Prior art keywords
- display
- user
- point touching
- multiple point
- touching sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
提供与供显示的数据集进行交互的方法与***。一种方法(70)包括在具有可由用户查看的表面的显示器上显示(76)信息,并且在多点触摸敏感装置的表面接收(78)用户输入。与显示器中可由用户查看的表面相比,多点触摸敏感装置的表面是不同表面。该方法进一步包括响应于接收的用户输入而操作(82)显示信息。
Description
技术领域
本文公开的主题大体上涉及与数据集交互并且更具体而言与显示的数据集交互的方法与***,该交互包括回顾(review)、操作和/或创建供显示的数据集。
背景技术
在日常基础上与数据集(例如,多媒体数据集)交互的专业用户,例如回顾患者数据的放射科医师,会在可能是一天八到十二小时或更长的长时间段与这些数据集交互(例如,回顾、操作和创建)。交互的长时期会对用户形成挑战和问题。例如,这些类型的用户可能由于长时间使用鼠标而经历重复应力手部伤害,并且如果工作场所环境没有适当地按人体工程学设计则可能经历整体不适。此外,这些用户可能由于要求视觉焦点(focus)转移或全部上下文转换(switch)以实现导航的交互装置的不时高要求性质而经历将视觉焦点保持在工作上的困难。
人类计算机化***交互的性质由可用输入/输出能力的性质支配。在常规***中,这些交互不匹配和/或模拟人类典型地进行交互的自然方式。例如,使用更自然的多点触摸(multi-touch)输入方法的商业***包括手持装置或交互表面。在手持和交互表面应用中,输入装置还是可视化装置。在这两种***中,用户交互模式无助于与持续交互的长时间日常使用,例如遇到某些专业用户(例如,回顾放射科医师)。此外,对于长时间用户,这些***不支持日常任务的重复和长时间性质。
发明内容
根据各种实施例,提供与显示信息交互的方法。该方法包括在具有可由用户查看的表面的显示器上显示信息,以及在多点触摸敏感装置的表面接收用户输入。多点触摸敏感装置的表面与显示器中可由用户查看的表面相比是不同表面。该方法进一步包括响应于接收的用户输入而操作显示信息。
根据其他各种实施例,提供包括至少一个显示器的工作站,该显示器被定方位(orient)以由用户进行查看并在该显示器的表面上显示信息。该工作站进一步包括具有屏幕的多点触摸敏感装置,该屏幕具有不同于显示器的表面的表面位置。该多点触摸敏感装置配置成检测用户的一个或多个手指对屏幕表面的接触,其中用户接触对应于用户输入。该工作站还包括配置成响应于接收的用户输入而操作显示信息的处理器。
根据其他各种实施例,提供包括多点触摸敏感装置的用户界面,该多点触摸敏感装置具有配置成检测用户触摸输入的输入表面。该用户界面进一步包括配置成显示信息以供查看的显示表面,其中输入表面和显示表面不是同一表面,并且基于用户触摸输入操作显示信息。
附图说明
图1是图示根据各种实施例形成的被提供为工作站一部分的用户界面的框图。
图2是图示根据各种实施例形成的用户界面的配置的框图。
图3是图示根据各种实施例形成的用户界面的操作的示图。
图4是根据各种实施例形成的用户界面的简化框图。
图5是根据各种实施例使用触摸敏感显示器来与显示信息交互的一种方法的流程图。
图6是根据各种实施例使用触摸敏感显示器来与显示信息交互的另一种方法的流程图。
图7是图示根据一个实施例的配置有显示器的用户界面的示图。
图8是图示根据另一个实施例的配置有显示器的用户界面的示图。
图9是图示根据另一个实施例的配置有显示器的用户界面的示图。
图10是图示根据各种实施例显示的图形指示符的显示器的示图。
具体实施方式
某些实施例的前述概要以及下列详细描述当结合附图阅读时将被更好地理解。就附图图示各种实施例的功能框的示图来说,功能框不一定指示硬件电路之间的划分。从而,例如,功能框(例如处理器或存储器)中的一个或多个可在单片硬件(例如,通用信号处理器或随机存取存储器块、硬盘等等)或多片硬件中实现。相似地,程序可以是独立程序,可作为子例程合并在操作***中,可以是安装的软件包中的功能,等等。应该理解各种实施例不限于图中示出的布置和工具。
如本文使用的,没有限定数量的元件或步骤应该理解为不排除复数个所述元件或步骤,除非明确陈述这样的排除。此外,对“一个实施例”的引用不旨在被解释为排除也包含所记载特征的附加实施例的存在。此外,除非相反地明确陈述,否则“包括”或“具有”具有特定性质的一个元件或多个元件的实施例可包括不具有该性质的附加元件。
各种实施例提供用于与例如多媒体数据集的数据集交互的***和方法。在一些实施例中的交互使用多点触摸敏感输入装置以及在一个或多个不同表面(例如,单独显示器或在相同装置上在不同位置的表面)上的可视化来提供。所述各种实施例可配置为工作站,工作站允许用户回顾、操作和/或创建供显示的数据集,例如多媒体数据集。例如,工作站可以是可被配置用于特定应用的图片归档和通信***(PACS)工作站,例如允许放射学中图像和信息管理的放射学信息***/图片归档和通信***(RIS/PACS)工作站。
图1图示根据各种实施例形成的用户界面20,其可以是工作站22的一部分。工作站22通常包括通过如下文详细描述的用户界面20接收用户输入的计算机24或其他处理器/处理机器。计算机24连接到一个或多个用于显示例如图像及数据的信息的显示器26。在各种实施例中,在显示器26中的一个或多个(例如一个或多个监视器)上显示的内容同样被显示在用户界面20的屏幕上,使得用户可使用触摸命令来控制在显示器26上显示的信息的显示和操作。
一个或多个***装置28可连接至计算机24。***装置28可例如包括用于接收计算机可读介质的外部读/写装置(例如,CD或DVD驱动器)、打印机等。还可提供一个或多个附加用户输入装置30来接收用户输入。例如,附加用户输入装置30可包括键盘、小键盘(keypad)、鼠标、轨迹球、操纵杆或其他物理输入装置。因此,用户输入可通过用户界面20以及可选地通过可为非触摸敏感输入装置的附加用户输入装置30来接收。
计算机24还可通过网络34连接至服务器32。服务器32可将数据存储在一个或多个数据库33中。网络34可以是任何类型的网络,例如,可以是例如在医院内的局域网(LAN)。然而,应该注意,网络32可以是例如内联网的本地网络,或者可以是万维网或其他互联网。因此,计算机24可在本地(例如,在计算机24的例如硬盘驱动器的本地存储器中)或在服务器32远程地访问和存储信息或数据。
工作站22还可选地连接到数据采集装置36。数据采集装置36可位于本地并且连接到工作站22,或者可以位于远离数据采集装置36的地方。例如,工作站22可形成数据采集装置36的一部分,与数据采集装置36相比可位于相同房间或不同房间中,或者与数据采集装置36相比可位于不同设施中。在一些实施例中,数据采集装置36是成像装置或扫描仪,例如诊断医学成像装置。例如,除其他类型的医学成像装置外,数据采集装置36还可以是x射线扫描仪或计算机断层摄影(CT)扫描仪。
在各种实施例中,用户界面20配置成允许显示信息或数据的交互、界面连接(interface)和/或控制,例如显示信息或数据基于可单独或同时执行的多个用户输入(例如,使用用户的多个手指)的回顾、操作和创建。应该注意,操作信息或数据(例如操作显示信息或数据)能够包括回顾、修改、创建显示信息或数据或者与显示信息或数据进行其他交互中的任何类型。
用户界面通常包括多点触摸敏感装置,例如能够感测或检测用户对屏幕表面的接触由此接收用户输入的多点触摸屏幕38。因此,多点触摸屏幕38的全部或至少一部分包括一个或多个触摸敏感区域,该敏感区域在各种实施例中允许与显示信息的用户交互。多点触摸屏幕38是任意触摸敏感装置,尤其是具有屏幕并且包括能够检测用户的触摸在多点触摸屏幕38上的位置的一个或多个部分的装置。应该注意,各种类型的触摸技术预期用于多点触摸屏幕38中,包括但不限于例如电容性传感器、膜开关以及红外检测器的触摸敏感元件。
用户界面20还包括用户引导***40,用户引导***40的全部或者一部分可形成多点触摸屏幕38的一部分或与多点触摸屏幕38分开。引导***40通常便于用户与多点触摸屏幕38的交互,以便提供例如关于操作显示数据的引导信息。在一个实施例中,引导***40包括触觉(haptic)板42以及一个或多个临近(proximity)传感器44。
触觉板42可结合触摸敏感多点触摸屏幕38进行操作,以向用户提供触觉响应或反馈,其可局限于多点触摸屏幕38中感测用户触摸的区域。触觉板42可包括多个按如下模式布置的压电传动器(actuator):在多点触摸屏幕38的用户触摸点处和/或其附近提供例如振动反馈的触觉反馈。一个或者多个临近传感器44还可与触觉板42结合使用,以在与多点触摸屏幕38交互时引导用户。例如,一个或多个红外临近传感器可被提供为触觉板42的一部分(例如,在多点触摸屏幕38下面)或与触觉板42分开,例如在单独面板中或在单独单元中。临近传感器44可以是任何类型的传感器,其检测用户手指或其他身体部分或者对象(例如,指示笔)在与多点触摸屏幕38进行接触之前的存在。例如,临近传感器44可配置成在用户的手指与多点触摸屏幕38接触之前检测到该手指。临近传感器44可检测到一个或多个手指在离多点触摸屏幕38(例如,在上面)预定距离处的存在。还可例如在如本文更详细描述的显示器26上向用户显示所检测手指的视觉指示。
因此,在例如显示信息的回顾、操作和/或创建的交互期间引导用户,同时操作多点触摸屏幕38。可提供包括用户界面20的各种实施例用于医学设置(setting)中,例如供回顾放射科医师使用。在这样的设置中或在其他设置中,多点触摸屏幕38和显示器26可如图2中图示那样提供。应该注意,在图2中(图示图解顶视图)***组件一般表示为框,但可采用不同配置来提供。如图所示,在一些实施例中提供各种组件,使得多个显示器26布置有垂直(或基本上垂直)放置的显示表面并且布置在在该示例中是放射科医师的用户50的主视觉焦点的区域周围。多点触摸屏幕38水平(或基本上水平)放置。
输入装置包括图形多点触摸屏幕输入装置(图示为多点触摸屏幕38)以及附加输入装置,例如可由用户50物理按压的鼠标52和硬键54。应该注意,硬键54可形成多点触摸屏幕38的一部分、与其相连接、置于其附近或与其分开。因此,输入装置提供触摸屏输入和/或物理移动输入。应该注意,可提供如本文中作为补充或替代所描述的其他输入装置。此外,可选地,可以任何适合方式提供非触觉用户输入,例如语音输入以及文本到语言界面连接装置(例如,头戴式耳机或麦克风/扬声器)。
多点触摸屏幕38在至少一个实施例中被放置在显示器26前面(与典型键盘相似地定方位),例如放置在放射学回顾***中。作为替代或补充,多点触摸屏幕38对于支持人体工程学利用的配置或方位是可移动的,例如为了在长时间段(例如,高达一天八到十二小时)期间的使用。因此,在一些实施例中,多点触摸屏幕38可代替与显示器26一起使用的键盘。在其他实施例中,可提供单独键盘,如本文详细所述。
在操作中,与多点触摸屏幕38关联的用户引导***40(图1中图示)提供临近感测/可视化和/或触觉感测。用户引导***40可始终开着或选择性地关闭(例如,在相同时间的临近感测/可视化和/或触觉感测中的一个或两个)以支持例如不同的操作模式、用户偏好、用户专业水平等。在一些实施例中,根据工作流程需要或需求,多点触摸屏幕38可配置成在多个窗口/窗格中显示以及操作文本和/或图像,作为电子键盘以及其他图形用户界面(GUI)控制以限定多点触摸表面。GUI可包括例如可与多点触摸屏幕38一起操作的虚拟控制或用户可选元件。
在每个触摸接触前,放射科医师手指的临近被临近传感器44(例如,红外近表面临近感测装置)检测到并且被显示在显示器26中一个或多个的屏幕上,作为将用户引导到适当触摸的手段(means)。在一些实施例中,显示代表检测到用户手指临近的区域的图形指示符(例如,圆圈)。这个图形指示符允许用户使用多点触摸屏幕38来确认或调节不同的触摸或运动。与临近感测/可视化和/或触觉感测结合的多点触摸屏幕38在各种实施例中允许用户具有在显示器26上的视觉焦点。
因此,如图3所示,用户50的手指60可在接触多点触摸屏幕38和在显示器之一26b上识别对应位置62之前被感测到。例如,可显示对应于用户手指60中每个的彩色圆圈或环。应该注意,多点触摸屏幕38在图示实施例中是具有与显示器26b相同的显示布置(例如,相同的所显示组件配置)的触摸屏幕,使得用户手指60沿着多点触摸屏幕38或在其上的移动直接对应于显示器26b上的所显示移动。因此,在一些实施例中,在多点触摸屏幕38上显示的信息是与显示器26b上显示并且在相同位置和方位上显示的信息相同的信息。
附加地,显示对象64可例如通过在多点触摸屏幕38上的用户触摸移动而沿着显示器26b移动和/或移动到另一个显示器26c。该对象64在放射学回顾应用中可以是一个或多个x射线图像或文件。因此,多点触摸屏幕38可对应于显示器26b或显示器26c(或两者)。因此,在一些实施例中,当用户操作不同屏幕上的信息时,在多点触摸屏幕38上的信息相应地转换或滚动。在其他实施例中,轻敲多点触摸屏幕38转换多点触摸屏幕38到不同显示器26a-26c的关联。在其他实施例中,在多点触摸屏幕38上显示的信息可对应于在所有显示器26a-26c上显示的信息。应该注意,尽管本文可针对特定显示器或动作给出示例,但是相似动作可结合屏幕或显示器中的任一个来执行。例如,可在一个或多个窗口66(或显示板)上执行相似操作。
应该意识到,各种实施例的输入装置(例如图4中图示的用户界面20)包括多个组件。具体而言,用户界面20包括多点触摸屏幕38、触觉板42以及临近传感器44。应该注意,图4仅仅图示形成用户界面20的组件,而没有图示用户界面20的任何特定层、布置或分级结构。
各种实施例提供如图5中图示的方法70,其用于使用例如多点触摸屏幕38的触摸敏感装置或显示器来与显示信息进行交互。通过实行该方法,可提供数据集的回顾、操作和/或创建。各种实施例的至少一个技术效果包括在回顾、操作和/或创建数据集的同时将用户的焦点维持在显示信息上。
方法70允许使用图形多点触摸敏感装置、例如具有与一个或多个显示器上可视的数据集交互的图形多点触摸屏幕界面装置来与数据集(例如,多媒体数据集)交互。在各种实施例中,多点触摸敏感装置的表面与一个或多个显示器的表面不同,例如有单独表面的单独装置或有不同配置表面的同一装置。具体而言,方法70包括在72确定可由用户选择的操作模式或者确定用户偏好,例如针对当前会话或工作流程。例如,可进行已经启动特定回顾模式的确定,这允许用户对数据集执行某些功能和操作,它们通过屏幕上显示的某些功能性或运算符(例如,虚拟可选元件、菜单导航条、菜单等)来实现。然后,多点触摸显示表面配置可在74基于确定的操作模式或用户偏好来选择。例如,诸如窗口(例如,四分(quad)显示)的屏幕配置可限定同样被提供在多点触摸显示表面上的特定显示需求或尺寸,例如在屏幕或显示器上显示的各种可选元件的方位及位置。附加地,可配置硬键或其他控制,使得某些动作与要被执行的对应操作(例如特定按钮的按压)关联。
作为另一个示例,用户偏好可包括显示器如何响应例如滑过/擦过多点触摸显示表面或多点触摸显示表面的多次触摸的特定用户动作。显示配置还可基于用户偏好来初始放置显示元件。在一些实施例中,选择的多点触摸显示表面配置包括使监视器或屏幕显示器上的信息也提供或显示在多点触摸显示表面上。
此后,在76对选择的多点触摸显示表面配置启动用户引导***。例如,可启动如本文更详细描述并且对应于特定显示模式的临近感测/可视化和/或触觉感测。应该注意,用户引导***在一些实施例中仅在需要或期望时(例如,基于特定操作模式)被激活,或者可只要***开着就激活。在其他实施例中,临近感测/可视化和/或触觉感测可结合仅多点触摸显示表面的某些部分来提供,或可对于多点触摸显示表面的不同部分是不同的。
在78检测到用户接触的临近,例如用户手指与多点触摸显示表面的临近,并且向用户显示指示。例如,如本文更详细描述的,向用户显示指示屏幕中对应于所检测用户手指的区域的图形指示符。可为每个所检测手指提供一个或多个图形指示符。
附加地,当用户触摸或接触多点触摸显示表面时还可在80提供触觉响应(例如,振动响应)。触觉响应或触觉反馈可基于多点触摸显示表面中触摸的部分而不同。例如,根据在进行用户接触的区域显示的信息或对象,触觉响应可以是不同的,例如不同的强度、响应类型、响应长度等。因此,如果用户在与显示的虚拟按钮对应的区域触摸多点触摸显示表面,则与当选择菜单条或正被显示的图像时的不太强烈振动相比,触觉响应可以是明显或短促的更强烈振动。
此后,显示信息可基于用户触摸进行修改(例如,移动、重新定方位等)。例如,在屏幕上显示的对象或窗口可通过用户手指在多点触摸显示表面上的对应移动而移动。
各种实施例的用户界面可在诊断医学成像回顾应用中例如由正在回顾并分析医学图像的回顾放射科医师实现。在医学回顾应用中使用触摸敏感显示器(例如多点触摸屏幕38)与显示信息交互的方法90在图6中图示。该方法包括在92接收使用一个或多个所显示虚拟键从导航菜单选择工作列表的用户输入,所述虚拟键可如本文描述的那样是可配置的,例如基于操作模式或用户偏好。应该注意,工作列表一般是指要执行的工作项目、动作项目、回顾项目等的任何列表。
然后,在94在多点触摸显示表面的屏幕上以及在正被用户查看的垂直显示器的屏幕上显示工作列表。然后,用户能够通过触摸多点触摸显示表面上的对应位置来选择患者或工作列表项目。因此,在96接收选择患者或工作列表项目的一个或多个用户触摸输入。
例如,选择下一个患者以供回顾可根据读取的性质采用多种方式来触发。当需要从列表中选择患者时,放射科医师可从能够使用多点触摸显示表面的可配置键(例如,可配置软键)来执行的高级导航选择工作列表。然后,该工作列表被显示在多点触摸显示表面的屏幕和显示装置上。然后,放射科医师使用他或她的手指在多点触摸显示表面上滚过工作列表,并且使用如本文更详细描述的触摸输入/手势和能力来选择患者。
再次参考图6,此后在98将患者信息呈现给用户。患者信息可用多点触摸显示表面进行操作。例如,一旦选择了患者或工作列表项目,包括有关(referring)医生的处方及相关患者历史的患者信息可使用文本到语言进行回顾,或者如果被可视地回顾,则文件可被显示为缩略图(thumbnail)并且使用多点触摸手势进行打开、放置在屏幕上并确定大小。
此后,在100接收到一个或多个用户触摸输入,以选择患者图像数据集。例如,继续回顾放射科医师示例,下一个工作流程步骤是选择供回顾的患者图像数据集,其可以是等待回顾的单个数据集(例如,CT或磁共振(MR)检查)或几个数据集。
然后在102将图像数据集呈现给用户。图像数据集可通过一个或多个触摸输入用多点触摸显示表面进行操作。例如,一旦选择供回顾的数据集,则该数据集可通过滚过(使用触摸输入)缩略图二维(2D)图像切片的幻灯片类型集来进行浏览及回顾,其中当按切片需要或期望多个视图时始终在大查看窗口中示出缩略图中之一。当需要操作(例如,摇动(pan)、放大/缩小、窗口级、窗口宽度等)或注释特定切片时,这样的操作可也在较大查看窗口中使用多点触摸手势来完成,其中特定切片被放大示出。多点触摸手势可被预先限定、预先确定或可必须由用户编程,例如在多点触摸显示装置的学习模式期间,其中多点触摸手势被存储并且与例如特定***命令的特定操作或功能关联。
然后,可在104基于用户输入产生报告,用户输入可包括触摸以及语音输入。例如,注释的图像然后可通过移动缩略图到仓库(bin)区域(用多点触摸手势)而复制到报告仓库中,供放射科医师报告使用。一旦已经回顾了数据集,放射科医师能够使用口授(用语音识别软件)、构建的报告或其组合来报告发现。在报告产生期间,注释的图像可被显示为缩略图,并且如果当口授报告时使用语音识别软件来产生报告的电子文件则注释的图像可被并入报告文本。
因此,各种实施例使用图形多点触摸界面装置来提供与数据集(例如,多媒体数据集)交互,所述图形多点触摸界面装置具有与在如图7到9中图示的一个或多个单独显示装置上可视化的数据集的交互。具体而言,可以是用户界面20的界面装置包括多点触摸屏幕38以及二者均在图1中示出的触觉板42和临近传感器42(例如,临近感测板)。可选地,可提供附加用户输入装置,例如键盘110和/或鼠标112。附加地,如本文更详细描述的,可提供控制键以根据交互工作流程配置多点触摸界面装置的功能性,控制键中的一些可以是硬键。
如可以在图7到9中看到的,多点触摸屏幕界面装置可对应于并且关联于控制显示器26中的一个或多个。例如,图7图示多点触摸屏幕38,其控制显示器26a并且使相同或相似信息呈现或显示在其上。例如,提供在要被控制的显示器(即显示器26a)上的工作列表120及用户可选择元件122同样被显示或关联于多点触摸屏幕38的配置。如果用户如本文更详细描述的那样转换到不同显示器,则多点触摸屏幕38也改变。相似地,图8图示多点触摸屏幕38,其控制三个显示器中的两个(即显示器26a和26b)和显示面板124(例如,虚拟窗口)。图9图示多点触摸屏幕38,其控制全部显示器,即显示器26a和26b。
在操作中,交互可包括例如浏览数据集;打开多个数据集;选择、操作、注释以及保存数据集;并且创建新数据集。应该注意,可视化显示装置(即显示器26)可以不同的角度和/或离所示多点触摸屏幕38的视觉距离来放置。交互包括:利用来自临近传感器44的输入(图1中示出)作为引导用户的方式,在触摸多点触摸屏幕38的表面之前将手指位置显示在垂直显示器26上。因此,例如如在图10中显示器26的具有多个面板124的屏幕130中示出的,可显示一个或多个图形指示符132,图形指示符132识别用户手指相对于多点触摸屏幕38的触摸的临近位置或位置。在一些实施例中,图形指示符132与用户手指中被检测到的部分尺寸大约相同。图形指示符132可以不同方式显示,例如,取决于用户手指分别是临近还是接触多点触摸屏幕38的彩色环或正方形。在其他实施例中,图形指示符132可使显示信息模糊(smudge)或改变显示信息。
附加地,各种实施例的交互包括向用户提供可随用户正在交互的GUI对象的类型改变的触觉感觉。应该注意,可在用户手指临近多点触摸屏幕38和/或在用户手指触摸多点触摸屏幕38时显示图形指示符132。
还应该注意,尽管各种实施例可结合特定显示配置或应用(例如,放射学回顾)进行描述,但是这些方法和***不限于其特定应用或特定配置。各种实施例可结合包括例如以下的不同类型的成像***来实现:x射线成像***、MRI***、CT成像***、正电子发射断层摄影(PET)成像***或联合成像***等。此外,各种实施例可在例如非破坏性测试***(例如超声焊接测试***或机场行李扫描***)的非医学成像***中以及在用于回顾多媒体数据集的***(例如文件编辑及制作)中实现。例如,各种实施例可结合操作一个或多个显示数据集的用户的***(例如电视和视频制作和编辑、飞行员的驾驶员座舱、能量设备(plant)控制***等)来实现。
应该注意,各种实施例可采用硬件、软件或其组合来实现。各种实施例和/或组件(例如模块或其中的组件和控制器),还可实现为一个或多个计算机或处理器的一部分。该计算机或处理器可包括计算装置、输入装置、显示器单元和例如用于访问互联网的接口。该计算机或处理器可包括微处理器。该微处理器可连接到通信总线。该计算机或处理器还可包括存储器。该存储器可包括随机存取存储器(RAM)和只读存储器(ROM)。该计算机或处理器可进一步包括存储装置,其可以是硬盘驱动器或可移除存储驱动器(例如软盘驱动器、光盘驱动器等)。该存储装置还可以是用于将计算机程序或其它指令载入到计算机或处理器的其它相似部件。
如本文使用的,术语“计算机”或“模块”可包括任何基于处理器或基于微处理器的***,包括使用微控制器、精简指令集计算机(RISC)、ASIC、逻辑电路和能够执行本文所述功能的任何其它电路或处理器的***。上文的示例只是示范性的,从而不旨在以任何方式限制术语“计算机”的定义和/或含义。
为了处理输入数据,计算机或处理器执行存储在一个或多个存储元件中的指令集。存储元件还可根据期望或需要存储数据或其它信息。存储元件可采用处理机器内信息源或物理存储器元件的形式。
指令集可包括各种命令,命令指示作为处理机器的计算机或处理器执行具体操作,例如本发明中各种实施例的方法和过程。指令集可采用软件程序的形式。该软件可采用例如***软件或应用软件并且可体现为有形和非暂时性计算机可读介质的各种形式。此外,该软件可采用单独程序或模块的集合、在更大程序内的程序模块或程序模块一部分的形式。该软件还可包括采用面向对象编程形式的模块化编程。处理机器对输入数据的处理可响应于操作员命令,或响应于之前处理的结果,或响应于由另一个处理机器进行的请求。
如本文使用的,术语“软件”和“固件”可互换,并且包括存储在存储器中供计算机执行的任何计算机程序,存储器包括RAM存储器、ROM存储器、EPROM存储器、EEPROM存储器以及非易失性RAM(NVRAM)存储器。以上存储器类型只是示范性的,从而没有针对可用于存储计算机程序的存储器类型进行限制。
要理解,以上描述旨在是说明性的而不是限制性的。例如,上述实施例(和/或其方面)可互相结合使用。另外,可进行许多修改以使特定情况或材料适应各种实施例的教导而没有脱离它们的范围。尽管本文描述的材料的尺寸和类型旨在限定各种实施例的参数,但是这些实施例绝不是限制性的而是示范实施例。当回顾以上描述时,许多其他实施例对于本领域技术人员将是显而易见的。各种实施例的范围因此应该参照随附权利要求书连同授予给此类权利要求书的等效的整个范围来确定。在随附权利要求书中,术语“包含”和“在其中”用作相应术语“包括”和“其中”的简单英语等效。此外,在随附权利要求书中,术语“第一”、“第二”和“第三”等仅仅用作标号,并且不旨在对它们的对象施加数值要求。此外,随附权利要求的限制没有采用部件加功能的格式来书写并且不旨在基于35U.S.C§112第六段进行解释,除非并且直到此类权利要求限制明确使用后跟没有另外结构的功能陈述的短语“用于...的部件”。
本书面描述使用示例来公开包括最佳模式的各种实施例,并且还使本领域技术人员能够实施各种实施例,包括制作和使用任何装置或***以及执行任何包含的方法。各种实施例的可专利范围由权利要求书限定,并且可包括本领域技术人员想到的其他示例。如果此类其他示例具有没有不同于权利要求书的书面语言的结构元件或者如果所述示例包括具有与权利要求书的书面语言无实质区别的等同结构元件,则所述示例旨在处于权利要求书的范围内。
部件列表:
20:用户界面
22:工作站
24:计算机
26:显示器
28:***装置
30:用户输入装置
32:服务器
33:数据库
34:网络
36:数据采集装置
38:多点触摸屏幕
40:用户引导***
42:触觉板
44:传感器
50:用户
52:鼠标
54:硬键
60:手指
62:位置
64:对象
66:窗口
70:方法
72:确定所选操作模式或用户偏好
74:基于确定的操作模式或用户偏好选择多点触摸显示表面配置
76:为所选多点触摸显示表面配置启动用户引导***
78:检测用户接触的临近并显示给用户
80:依据多点触摸显示器的用户触摸提供触觉响应
82:基于用户触摸(ES)修改显示信息
90:方法
92:接收使用多点触摸屏幕的可配置键从导航菜单选择工作列表的用户输入
94:在多点触摸屏幕及显示装置上显示工作列表
96:接收选择患者的用户触摸输入
98:向用户呈现可用多点触摸屏幕操作的患者信息
100:接收选择患者图像数据集的用户触摸输入
102:向用户呈现可用多点触摸屏幕操作的图像数据集
104:基于包括触摸和语音的用户输入产生报告
110:键盘
112:鼠标
120:工作列表
122:用户可选择元件
124:面板
130:屏幕
132:图形指示符
Claims (21)
1.一种用于与显示信息进行交互的方法,所述方法包括:
在具有可由用户查看的表面的显示器上显示信息;
在多点触摸敏感装置的表面上接收用户输入,所述多点触摸敏感装置的所述表面与所述显示器的可由用户查看的所述表面相比是不同表面;并且
响应于所接收的用户输入来操作所述显示信息;
还包括利用至少一个邻近传感器对邻近所述多点触摸敏感装置的用户的多个手指进行检测以及在所述显示器上显示指示符,其中,所述指示符对应于所检测手指相对于所述多点触摸敏感装置的位置。
2.如权利要求1所述的方法,还包括基于所述用户输入来提供引导响应,所述引导响应包括在所述显示器上显示图形指示符或用所述多点触摸敏感装置提供触觉响应中的至少一个。
3.如权利要求2所述的方法,其中,提供所述触觉响应包括基于触摸的所述多点触摸敏感装置的表面的部分来提供不同的触觉响应。
4.如权利要求2所述的方法,其中,显示所述图形指示符包括显示与提供所述输入的用户的手指尺寸大约相同的多个图形指示符。
5.如权利要求1所述的方法,其中,操作所述显示信息包括基于在所述多点触摸敏感装置接收的多点触摸手势来修改所述显示信息。
6.如权利要求1所述的方法,还包括将在所述多点触摸敏感装置接收的多点触摸手势与***命令关联。
7.如权利要求1所述的方法,还包括在所述多点触摸敏感装置和所述显示器上显示工作列表,以及接收来自多点触摸敏感显示器的用户触摸输入以从所述工作列表选择项目来显示。
8.如权利要求7所述的方法,其中,所述项目对应于患者并且还包括显示患者信息。
9.如权利要求7所述的方法,其中,所述项目包括具有一个或多个图像的患者图像数据集,并且还包括基于在所述多点触摸敏感装置接收的多点触摸手势来打开所述图像、将所述图像放置在所述显示器上以及确定所述图像的大小。
10.如权利要求9所述的方法,其中,所述图像包括二维(2D)图像切片集,并且还包括基于在所述多点触摸敏感装置接收的多点触摸手势来摇动、缩放、调节显示窗口或对所述2D图像切片的至少一个进行注释中的之一。
11.如权利要求9所述的方法,还包括接收听觉输入以及结合所述图像的至少一个来产生电子报告文件。
12.如权利要求1所述的方法,还包括从附加非触摸敏感装置接收用户输入。
13.一种工作站,包括:
至少一个显示器,被定方位用于由用户进行查看并在所述显示器的表面上显示信息;
具有屏幕的多点触摸敏感装置,所述屏幕具有不同于所述显示器的所述表面的表面位置,所述多点触摸敏感装置配置成检测所述屏幕表面由用户的多个手指的接触,所述用户接触对应于用户输入;以及
处理器,配置成响应于所接收的用户输入来操作所述显示信息;以及
临近传感器,配置成检测用户临近所述多点触摸敏感装置的一个或多个手指,
并且其中,所述处理器配置成在所述至少一个显示器上产生指示符,所述指示符对应于所检测手指相对于所述多点触摸敏感装置的位置。
14.如权利要求13所述的工作站,其中,所述至少一个显示器上显示的所述信息被显示在所述多点触摸敏感装置上。
15.如权利要求13所述的工作站,其中,所述至少一个显示器处于大体上垂直的方位,并且所述多点触摸敏感装置的所述屏幕处于大体上水平的方位。
16.如权利要求13所述的工作站,还包括至少一个非触摸敏感用户输入装置。
17.如权利要求13所述的工作站,还包括多个显示器,并且其中所述多点触摸敏感装置配置成接收用户触摸输入以使用所述多点触摸敏感装置来切换所述显示器的控制。
18.如权利要求13所述的工作站,其中,所述多点触摸敏感装置配置成接收多点触摸手势以对在所述至少一个显示器上显示的所述信息进行修改。
19.如权利要求13所述的工作站,其中,所述处理器连接到数据库,所述数据库具有其中存储的医学图像信息,所述至少一个显示器配置成显示所述医学图像信息,以及所述多点触摸敏感装置配置成接收多点触摸手势用于打开所述医学图像信息、将所述医学图像信息放置在所述显示器上以及确定所述医学图像信息的大小。
20.如权利要求13所述的工作站,还包括:
连接到所述多点触摸敏感装置的触觉板,配置成基于感测到与所述多点触摸敏感装置的接触而提供触觉响应。
21.一种用户界面,包括:
多点触摸敏感装置,具有配置成检测用户触摸输入的输入表面;以及
显示表面,配置成显示信息用于查看,其中,所述输入表面和所述显示表面不是同一表面,并且基于所述用户触摸输入对所述显示信息进行操作;以及
临近传感器,配置成检测用户临近所述多点触摸敏感装置的多个手指,
并且其中,处理器配置成在至少一个显示器上产生指示符,所述指示符对应于所检测手指相对于所述多点触摸敏感装置的位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/820919 | 2010-06-22 | ||
US12/820,919 US20110310126A1 (en) | 2010-06-22 | 2010-06-22 | Method and system for interacting with datasets for display |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102411471A CN102411471A (zh) | 2012-04-11 |
CN102411471B true CN102411471B (zh) | 2016-04-27 |
Family
ID=45328232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110227908.2A Expired - Fee Related CN102411471B (zh) | 2010-06-22 | 2011-06-22 | 与供显示的数据集交互的方法与*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US20110310126A1 (zh) |
JP (1) | JP2012009022A (zh) |
CN (1) | CN102411471B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8532745B2 (en) | 2006-02-15 | 2013-09-10 | Hologic, Inc. | Breast biopsy and needle localization using tomosynthesis systems |
KR101554183B1 (ko) * | 2008-10-15 | 2015-09-18 | 엘지전자 주식회사 | 이동 단말기 및 그의 출력 제어 방법 |
CN102481146B (zh) | 2009-10-08 | 2016-08-17 | 霍罗吉克公司 | ***的穿刺活检***及其使用方法 |
US20120095575A1 (en) * | 2010-10-14 | 2012-04-19 | Cedes Safety & Automation Ag | Time of flight (tof) human machine interface (hmi) |
WO2012071429A1 (en) * | 2010-11-26 | 2012-05-31 | Hologic, Inc. | User interface for medical image review workstation |
US9152395B2 (en) * | 2010-12-13 | 2015-10-06 | Microsoft Technology Licensing, Llc | Response to user input based on declarative mappings |
US9020579B2 (en) | 2011-03-08 | 2015-04-28 | Hologic, Inc. | System and method for dual energy and/or contrast enhanced breast imaging for screening, diagnosis and biopsy |
JP2014534042A (ja) | 2011-11-27 | 2014-12-18 | ホロジック, インコーポレイテッドHologic, Inc. | マンモグラフィーおよび/またはトモシンセシス画像データを使用して2d画像を生成するためのシステムおよび方法 |
EP3315072B1 (en) | 2012-02-13 | 2020-04-29 | Hologic, Inc. | System and method for navigating a tomosynthesis stack using synthesized image data |
JP5772669B2 (ja) * | 2012-03-09 | 2015-09-02 | コニカミノルタ株式会社 | ユーザー端末装置、画像処理装置、オペレータ端末装置、情報処理システムおよびプログラム |
CN103324420B (zh) * | 2012-03-19 | 2016-12-28 | 联想(北京)有限公司 | 一种多点触控板输入操作识别方法及电子设备 |
US20150254448A1 (en) * | 2012-04-30 | 2015-09-10 | Google Inc. | Verifying Human Use of Electronic Systems |
WO2014151646A1 (en) | 2013-03-15 | 2014-09-25 | Hologic Inc. | Tomosynthesis-guided biopsy in prone |
JP6366898B2 (ja) * | 2013-04-18 | 2018-08-01 | キヤノンメディカルシステムズ株式会社 | 医用装置 |
US9671903B1 (en) * | 2013-12-23 | 2017-06-06 | Sensing Electromagnetic Plus Corp. | Modular optical touch panel structures |
ES2943561T3 (es) | 2014-02-28 | 2023-06-14 | Hologic Inc | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis |
US20150261405A1 (en) * | 2014-03-14 | 2015-09-17 | Lynn Jean-Dykstra Smith | Methods Including Anchored-Pattern Data Entry And Visual Input Guidance |
US10042353B1 (en) * | 2014-06-09 | 2018-08-07 | Southern Company Services, Inc. | Plant operations console |
US10785441B2 (en) * | 2016-03-07 | 2020-09-22 | Sony Corporation | Running touch screen applications on display device not having touch capability using remote controller having at least a touch sensitive surface |
US20170371528A1 (en) * | 2016-06-23 | 2017-12-28 | Honeywell International Inc. | Apparatus and method for managing navigation on industrial operator console using touchscreen |
EP3600051B1 (en) | 2017-03-30 | 2024-05-01 | Hologic, Inc. | Method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement |
US11399790B2 (en) | 2017-03-30 | 2022-08-02 | Hologic, Inc. | System and method for hierarchical multi-level feature image synthesis and representation |
US11445993B2 (en) | 2017-03-30 | 2022-09-20 | Hologic, Inc. | System and method for targeted object enhancement to generate synthetic breast tissue images |
WO2018236565A1 (en) | 2017-06-20 | 2018-12-27 | Hologic, Inc. | METHOD AND SYSTEM FOR MEDICAL IMAGING WITH DYNAMIC SELF-LEARNING |
US11093449B2 (en) * | 2018-08-28 | 2021-08-17 | International Business Machines Corporation | Data presentation and modification |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088023A (en) * | 1996-12-10 | 2000-07-11 | Willow Design, Inc. | Integrated pointing and drawing graphics system for computers |
US8020095B2 (en) * | 1997-11-14 | 2011-09-13 | Immersion Corporation | Force feedback system including multi-tasking graphical host environment |
US7834855B2 (en) * | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
US6757002B1 (en) * | 1999-11-04 | 2004-06-29 | Hewlett-Packard Development Company, L.P. | Track pad pointing device with areas of specialized function |
JP3852368B2 (ja) * | 2002-05-16 | 2006-11-29 | ソニー株式会社 | 入力方法及びデータ処理装置 |
CN1378171A (zh) * | 2002-05-20 | 2002-11-06 | 许旻 | 一种计算机输入*** |
US20050162402A1 (en) * | 2004-01-27 | 2005-07-28 | Watanachote Susornpol J. | Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback |
FR2878344B1 (fr) * | 2004-11-22 | 2012-12-21 | Sionnest Laurent Guyot | Dispositif de commandes et d'entree de donnees |
US7432916B2 (en) * | 2004-12-09 | 2008-10-07 | Universal Electronics, Inc. | Controlling device with dual-mode, touch-sensitive display |
CN100452067C (zh) * | 2005-10-29 | 2009-01-14 | 深圳清华大学研究院 | 一种医学图像数据传输与三维可视化的实现方法 |
JP2007127993A (ja) * | 2005-11-07 | 2007-05-24 | Matsushita Electric Ind Co Ltd | 表示装置およびナビゲーション装置 |
EP1980935A1 (en) * | 2006-02-03 | 2008-10-15 | Matsushita Electric Industrial Co., Ltd. | Information processing device |
KR101614667B1 (ko) * | 2006-06-09 | 2016-04-21 | 애플 인크. | 터치 스크린 액정 디스플레이 |
US7640518B2 (en) * | 2006-06-14 | 2009-12-29 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for switching between absolute and relative pointing with direct input devices |
US9069417B2 (en) * | 2006-07-12 | 2015-06-30 | N-Trig Ltd. | Hover and touch detection for digitizer |
JP2008096565A (ja) * | 2006-10-10 | 2008-04-24 | Nikon Corp | 画像表示プログラムおよび画像表示装置 |
US8850338B2 (en) * | 2006-10-13 | 2014-09-30 | Siemens Medical Solutions Usa, Inc. | System and method for selection of anatomical images for display using a touch-screen display |
US7777731B2 (en) * | 2006-10-13 | 2010-08-17 | Siemens Medical Solutions Usa, Inc. | System and method for selection of points of interest during quantitative analysis using a touch screen display |
US9311528B2 (en) * | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
US20080273015A1 (en) * | 2007-05-02 | 2008-11-06 | GIGA BYTE Communications, Inc. | Dual function touch screen module for portable device and opeating method therefor |
US20110047459A1 (en) * | 2007-10-08 | 2011-02-24 | Willem Morkel Van Der Westhuizen | User interface |
US20090213083A1 (en) * | 2008-02-26 | 2009-08-27 | Apple Inc. | Simulation of multi-point gestures with a single pointing device |
EP2258587A4 (en) * | 2008-03-19 | 2013-08-07 | Denso Corp | OPERATING DEVICE FOR A VEHICLE |
US8723811B2 (en) * | 2008-03-21 | 2014-05-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
US8223173B2 (en) * | 2008-04-09 | 2012-07-17 | Hewlett-Packard Development Company, L.P. | Electronic device having improved user interface |
CN101661363A (zh) * | 2008-08-28 | 2010-03-03 | 比亚迪股份有限公司 | 一种多点触摸感应***的应用方法 |
KR101481556B1 (ko) * | 2008-09-10 | 2015-01-13 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 객체 표시방법 |
US8745536B1 (en) * | 2008-11-25 | 2014-06-03 | Perceptive Pixel Inc. | Volumetric data exploration using multi-point input controls |
US20100302190A1 (en) * | 2009-06-02 | 2010-12-02 | Elan Microelectronics Corporation | Multi-functional touchpad remote controller |
KR101662249B1 (ko) * | 2009-09-18 | 2016-10-04 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 정보 입력 방법 |
US8819591B2 (en) * | 2009-10-30 | 2014-08-26 | Accuray Incorporated | Treatment planning in a virtual environment |
US8384683B2 (en) * | 2010-04-23 | 2013-02-26 | Tong Luo | Method for user input from the back panel of a handheld computerized device |
-
2010
- 2010-06-22 US US12/820,919 patent/US20110310126A1/en not_active Abandoned
-
2011
- 2011-06-16 JP JP2011133781A patent/JP2012009022A/ja active Pending
- 2011-06-22 CN CN201110227908.2A patent/CN102411471B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102411471A (zh) | 2012-04-11 |
US20110310126A1 (en) | 2011-12-22 |
JP2012009022A (ja) | 2012-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102411471B (zh) | 与供显示的数据集交互的方法与*** | |
US8941600B2 (en) | Apparatus for providing touch feedback for user input to a touch sensitive surface | |
EP1979804B1 (en) | Gesturing with a multipoint sensing device | |
US8151188B2 (en) | Intelligent user interface using on-screen force feedback and method of use | |
US7441202B2 (en) | Spatial multiplexing to mediate direct-touch input on large displays | |
US20150302146A1 (en) | User interface for medical image review workstation | |
US20110216015A1 (en) | Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions | |
WO2013018480A1 (ja) | タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム | |
WO2013008649A1 (ja) | 指の接触による入力を複数のモードで実行可能なユーザインタフェース装置、入力操作判定方法及びプログラム | |
EP2115560A2 (en) | Gesturing with a multipoint sensing device | |
US20100179390A1 (en) | Collaborative tabletop for centralized monitoring system | |
JP2011238226A (ja) | タッチスクリーンで選択された情報に対応する付加情報を含む透明ポップアップを表示する方法及び装置 | |
WO2012133272A1 (ja) | 電子機器 | |
CN101308428B (zh) | 将图形输入板映射到显示器的设备、方法和计算机可读介质 | |
EP2846243B1 (en) | Graphical user interface providing virtual super-zoom functionality | |
Biener et al. | Povrpoint: Authoring presentations in mobile virtual reality | |
JP2007128261A (ja) | 情報処理方法およびその装置 | |
US20140145967A1 (en) | Apparatus for providing a tablet case for touch-sensitive devices | |
Tu et al. | Text Pin: Improving text selection with mode-augmented handles on touchscreen mobile devices | |
US20180267761A1 (en) | Information Handling System Management of Virtual Input Device Interactions | |
US10133346B2 (en) | Gaze based prediction device and method | |
JP5520343B2 (ja) | 情報処理装置、及びその制御方法、プログラム、及び記録媒体 | |
US20140085197A1 (en) | Control and visualization for multi touch connected devices | |
KR101477266B1 (ko) | 스케치 인터페이스를 이용한 데이터 관리 시스템 및 방법 | |
AU2016238971B2 (en) | Gesturing with a multipoint sensing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160427 Termination date: 20200622 |
|
CF01 | Termination of patent right due to non-payment of annual fee |