CN108292194A - 用于显示数据的装置 - Google Patents

用于显示数据的装置 Download PDF

Info

Publication number
CN108292194A
CN108292194A CN201680067209.7A CN201680067209A CN108292194A CN 108292194 A CN108292194 A CN 108292194A CN 201680067209 A CN201680067209 A CN 201680067209A CN 108292194 A CN108292194 A CN 108292194A
Authority
CN
China
Prior art keywords
user
image data
user interface
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680067209.7A
Other languages
English (en)
Inventor
R·P·J·赫尔曼斯
A·巴谢尔曼斯
I·D·斯图伊夫赞德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN108292194A publication Critical patent/CN108292194A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/452Remote windowing, e.g. X-Window System, desktop virtualisation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本发明涉及一种用于显示数据的装置。所述装置被描述为:在至少一个显示单元上显示(20)第一数据;确定(30)至少一个输入单元的用户输入区的用户交互部分;并且在所述至少一个显示单元上同时显示(40)所述第一数据的部分与第二图像数据,其中,所述第二图像数据表示所述至少一个输入单元的所述用户输入区的所述用户交互部分。

Description

用于显示数据的装置
技术领域
本发明涉及用于显示数据的装置,并且涉及用于显示数据的方法,并且涉及计算机程序单元和计算机可读介质。
背景技术
在某些医学应用(例如,诸如介入X射线***的涉及医学成像***的医学应用)中,用户需要在查看显示设备的不同屏幕的同时在输入设备(例如,触摸设备)上操作图形用户接口(GUI)。然而,如果用户需要通过输入设备上的GUI来激活某些功能,那么用户需要从显示设备的屏幕移开目光,在输入设备的GUI上激活对应于所要求的功能的按钮,然后再回来观看显示设备以判断动作的结果。当用户与非医学应用中的输入单元交互时(例如在看电视的同时使用TV远程控制时)涉及类似的问题。
US 2012/0182244 A1涉及用于由技术人员经由远程设备(例如,笔记本电脑或平板电脑)为医学流程提供远程辅助的***和方法。由医学设备生成的视频输出和由相机捕捉的视频可以经由网络进行传输,并且在远程设备上进行绘制。
然而,可能仍然不能为用户提供关于正在如何显示图像或其他数据的必要反馈。
发明内容
尤其是针对诸如介入X射线***的医学成像***来说,具有用于显示数据的改进的技术将会是有利的。
本发明的目的利用独立权利要求的主体得以解决,其中,进一步的实施例被包含在从属权利要求中。应当注意,下文描述的本发明的各方面也适于用于显示数据的装置、用于显示数据的方法,以及计算机程序单元和计算机可读介质。
根据第一方面,提供了一种用于显示数据的装置,包括:
-至少一个显示单元;
-至少一个触摸输入单元,其包括显示屏,所述显示屏被配置为显示表示用户输入区的图形用户接口的输入单元图像数据,所述图形用户接口包括多个区域;以及
-处理单元;
其中,所述处理单元被配置为在所述至少一个显示单元上显示第一图像数据;
其中,所述处理单元被配置为确定所述用户正在与之交互的所述多个区域中的区域,作为所述用户接口的用户交互部分,并且
其中,所述处理单元被配置为在所述至少一个显示单元上同时显示所述第一图像数据与第二图像数据,所述第二图像数据表示所述图形用户接口的所述用户交互部分。
换言之,用户能够与触摸输入设备交互,并且在单独的显示设备上提供有关于用户正在与之交互的触摸设备用户接口的区的视觉反馈。换言之,用户在他们正在与之交互的输入单元(例如,触摸设备)上的图形用户接口的部分的显示单元(例如,查看设备)上得到直接反馈。
以此方式,用户不需要关于与输入单元交互而从显示单元移开目光。换言之,在范例中,为盲目的触摸屏控制提供关于用户正在与之交互的触摸设备用户接口的区的正在被提供给用户的反馈。换言之,当在输入单元上交互(例如,触摸)的同时观看单独的显示单元以进行交互反馈时,提供了改进的交互反馈。
优选地,仅输入单元上的图形用户接口(GUI)的单个区域或面板被呈现在至少一个显示单元上。由此,呈现触摸设备GUI所要求的至少一个显示单元上的屏幕区的量受到限制。优选地,第二图像数据对应于表示用于活跃区域的图形用户接口的图像数据,所述活跃区域是用户正在与之交互的区域。因此,GUI的活跃区域的内容被镜像显示在主显示器上。
有利地,在至少一个显示单元的屏幕上仅占据有限量的空间,并且被占据的空间与用户正在触摸设备上做什么直接有关。换言之,至少一个显示单元上的空间正在被高效且有效地使用。换言之,由于表示触摸设备的用户输入区的用户交互部分的触摸设备的第二图像数据被示出在查看设备上,因此查看设备上的要用于镜像显示或示出表示触摸设备用户接口的示意表示的屏幕区的量受到限制。
换言之,如果输入单元(例如,触摸屏)正在示出已经被呈现在至少一个显示单元上的影像,那么影像将不被重现在显示设备上。
在范例中,所述第一数据包括另外的图形用户接口,并且所述第二图像数据包括所述触摸屏图形用户接口的部分,并且所述第二图像数据被绘制在所述另外的图形用户接口的部分附近。
替代地,所述第二图像数据与所述另外的图形用户接口的部分混合。在另外的替代实施例中,所述第二图像数据被绘制在第一图形用户接口的部分内部。
在范例中,所述处理单元被配置为当用户在所述图形用户接口的所述多个区域中的至少一个区域上面移动手时确定所述用户交互部分。
替代地或额外地,所述处理单元被配置为当用户触摸所述图形用户接口的所述多个区域中的至少一个区域时确定所述用户交互部分。
替代地或额外地,所述处理单元被配置为当指针在所述图形用户接口的所述多个区域中的至少一个区域上面移动时确定所述用户交互部分。
以此方式,被显示在触摸设备上的图像上的如图所示的例如光标的位置现在能够被呈现在单独的查看设备上,所述单独的查看设备示出了被示出在触摸设备上的图像的部分以及光标位置。换言之,当用户观看单独的查看屏幕时,用户能够跟踪光标在触摸屏上的位置。换言之,当输入单元(例如,触摸设备)用户接口或图形用户接口示出与在至少一个显示单元(例如,查看设备)上示出的内容不同的内容时,如果用户必须观看触摸设备并且试图将光标定位在复杂的图像背景内,那么指示设备在触摸屏用户接口上的位置将会是不清楚的。然而,通过提供局部化的用户交互部分(例如,光标位置)作为被呈现在查看设备上的第二图像数据的部分,用户能够更好地跟踪光标在触摸设备上的位置,并且在跟踪光标在触摸设备上的位置时不必从查看设备移开目光。
在范例中,根据来自所述用户的输入来启用或禁用在所述至少一个显示单元上对所述第二图像数据的显示。
根据第二方面,提供了一种医学成像***(例如,介入X射线***),所述医学成像***包括根据本发明的用于显示数据的装置。显示单元优选被提供为顶置监视器(例如,检查室监视器),并且触摸输入设备优选被提供为检查台侧模块(TSM),所述检查台侧模块是被布置为邻近患者检查台的控制设备。
根据第三方面,提供了一种用于显示数据的方法,所述方法包括:
a)在至少一个显示单元上显示第一图像数据;
b)确定用户正在与之交互的图形用户接口的多个区域中的区域,作为所述图形用户接口的用户交互部分;并且
c)在所述至少一个显示单元上同时显示所述第一数据的部分与第二图像数据,所述第二图像数据表示所述图形用户接口的所述用户交互部分。
根据另一方面,提供了一种用于控制先前描述的装置的计算机程序单元,所述计算机程序单元当由处理单元运行时适合于执行先前描述的方法的步骤。
根据另一方面,提供了一种存储有先前描述的程序单元的计算机可读介质。
有利地,由以上各方面中的任一个提供的益处等同地适用于所有其他方面,并且反之亦然。
参考下文描述的实施例,本发明的这些方面和其他方面将变得明显并且得到阐明。
附图说明
下面将参考以下附图来描述示例性实施例:
图1示出了用于显示数据的方法的范例;
图2示出了用于显示数据的范例装置的示意性设置;
图3示出了输入单元的范例以及两个显示单元;
图4示出了由用于显示数据的范例装置显示数据的范例;
图5示出了以示意性方式呈现的与在图4中示出的相同的数据;
图6示出了由用于显示数据的范例装置显示数据的范例;
图7示出了以示意性方式呈现的与在图6中示出的相同的数据;
图8示出了用于利用范例工作流显示数据的范例装置的技术实现方式的范例。
具体实施方式
图1示出了用于在其基本步骤中显示数据的方法10,方法10包括:
在第一显示步骤20(也被称为步骤a))中,在至少一个显示单元上显示第一数据。
在确定步骤30(也被称为步骤b))中,确定至少一个输入单元的用户输入区的用户交互部分。
在第二显示步骤40(也被称为步骤c))中,在至少一个显示单元上同时显示第一数据的部分与第二图像数据,其中,第二图像数据表示至少一个输入单元的用户输入区的用户交互部分。
在范例中,第一数据包括图像数据。在范例中,第一数据包括文本数据。在范例中,第一数据包括信号。在范例中,第一数据包括这些数据的任意组合。例如,在范例中,第一数据包括图像数据和文本数据。
图2示出了用于显示数据的装置50。装置50包括至少一个显示单元60、包括用户输入区的至少一个输入单元70,以及处理单元80。处理单元80被配置为在至少一个显示单元60上显示第一图像数据。处理单元80还被配置为确定至少一个输入单元70的用户输入区的用户交互部分。处理单元80还被配置为在至少一个显示单元60上同时显示第一图像数据的部分与第二图像数据,其中,第二图像数据表示至少一个输入单元70的用户输入区的用户交互部分。
在范例中,至少一个显示单元包括被配置为显示医学图像数据的监视器,所述监视器优选为可以被布置在医院检查室内部的顶置监视器。在范例中,第一数据包括介入X射线数据。在范例中,第一数据包括CT X射线图像数据、X射线荧光图像数据、X射线断层摄影图像数据、磁共振(MR)图像数据,超声图像数据或这些图像数据的任意组合。
在范例中,至少一个触摸输入单元包括具有用户能够触摸的屏幕的设备,例如,智能手机或平板电脑PC,或者在优选实施例中为邻近医院检查室中的患者检查台的检查台侧模块。用户可以在观看优选示出触摸设备的图形用户接口的顶置显示器的同时与触摸输入设备交互。例如,平板电脑用户接口或图形用户接口能够被直接绘制在屏幕上。
在范例中,至少一个输入单元能够是具有其自身的图形用户接口的触摸设备,例如,示出与被呈现在单独的显示单元上的医学影像有关的单独的处理、采集、医学设备配置和测量功能的触摸设备,并且处理单元能够确定用户正在与之交互的触摸设备的区(例如,与测量功能有关的区),并且在至少一个显示单元上将触摸板上的如图所示的测量功能连同医学图像数据一起呈现为单独的或集成的区域。然而,即使输入单元能够具有显示屏,这也不一定意味着表示输入单元的用户输入区的用户交互部分的第二图像数据正在反映被呈现在输入单元上的图像数据。这里的“表示”意味着:即使输入单元正在示出影像,显示单元也会示出该影像的示意表示。然而,“表示”还意味着显示单元能够反映正在被示出在输入单元的显示屏上的内容的至少部分。
在范例中,至少一个输入单元包括被配置为在用户不必用用户的手或指针或触控笔触摸输入单元的情况下检测用户的手或指针或触控笔的接近度的设备。例如,至少一个输入单元能够使用微波或激光感测来确定用户的手关于输入单元的用户输入区的接近度和位置,以便确定用户交互部分。在范例中,至少一个输入单元使用相机查看用户的手来检测用户的手关于输入单元的接近度和位置。在范例中,至少一个输入单元通过用户的手的磁场干扰感测来检测用户的手关于输入单元的接近度和位置。换言之,至少一个输入单元能够是触摸设备和/或接近度设备。
换言之,在范例中,能够存在多个显示单元和/或多个输入单元。例如,关于多个显示单元,能够在控制室中存在显示单元并且在检查室中也存在显示单元。例如,关于多个输入单元,能够存在用于医师(靠近患者)的输入单元(例如,检查台侧模块),并且也能够存在用于护士的输入单元。
在范例中,第二图像数据是表示用户正在与之交互的图形用户接口的至少活跃部分的图像数据的直接重现。例如,输入单元能够是具有其自身的屏幕的触摸设备,在所述屏幕上存在示出医学影像的第一区域或区以及示出与该医学影像的控制和处理有关的按钮的第二区域或区。
至少一个显示单元能够是显示如在至少一个输入单元上示出的影像的放大图的医学检查室监视器,并且当用户在按钮的位置处与输入单元交互时,能够在至少一个显示单元上反映被呈现在输入单元上的按钮的影像。
在范例中,当用户的手指接近输入单元(例如,触摸设备)时,正被呈现在触摸设备上的、被集中在可能尚未对触摸设备进行触摸的手指周围的图像部分被呈现在至少一个显示单元(例如,查看设备)上。以此方式,用户可以朝向触摸设备的屏幕的中右侧移动他们的手指。在触摸设备上可以存在正在被呈现在屏幕的中央的、在查看设备上以扩展形式示出的图像,并且许多功能按钮可以被呈现在触摸屏的最右侧。在这种情况下,当用户的手指接近触摸屏时,用户被呈现在查看设备上,其中,来自触摸设备的图像部分以及按钮部分被示出。当他们在触摸屏上面向右侧移动他们的手指时,查看设备上的图像示出被呈现在触摸设备上的更少图像和触摸设备上的更多按钮。最后,在查看设备上为用户呈现关于根据要求被呈现的触摸设备的信息(例如,功能按钮),使得用户能够按压触摸设备上的他们希望按压的按钮。以此方式,他们能够经由与单独的输入单元交互来与被呈现在至少一个显示单元上的影像交互,而不必从至少一个显示单元移开他们的视线。
根据范例,如图2所示,至少一个输入单元70包括被配置为显示输入单元图像数据的显示屏90,其中,至少一个输入单元70的用户输入区包括被显示在显示屏上的输入单元图像数据的至少部分,并且其中,第二图像数据包括输入单元图像数据的至少部分。
在范例中,至少一个输入单元的用户输入区包括被显示在显示屏上的输入单元图像数据的至少部分,这意味着至少一个输入单元的用户输入区显示输入单元图像数据的至少部分。
换言之,在范例中,输入单元(例如,触摸设备)的用户接口或图形用户接口的部分被绘制在至少一个显示单元(例如,查看设备)上。优选地,该部分是活跃区域,即,用户正在与之交互的图形用户接口的多个区域中的一个区域。
在范例中,输入单元图像数据包括介入X射线数据。在范例中,输入单元图像数据包括CT X射线图像数据、X射线荧光图像数据、X射线断层摄影图像数据、磁共振(MR)图像数据、超声图像数据或这些图像数据的任意组合。在范例中,输入单元图像数据包括与用于以下的按钮功能有关的图像:医学图像数据的处理和/或采集和/或与图像数据的采集相关联的设备(例如,X射线单元或MRI单元)的控制。例如,输入单元图像数据能够与具有包括以下的任意组合的功能的按钮有关:采集;X射线单元控制和/或医学检查台控制;X射线束准直;处理;缩放&平移;对比&亮度;减影;测量;图像交叠;重置;以及档案的打开。
在范例中,至少一个输入单元包括触摸屏,并且用户正在触摸或已经触摸的图形用户接口或用户接口的部分以示意形式被呈现在至少一个显示单元上。在范例中,至少一个输入单元包括触摸屏,并且用户正在触摸或已经触摸的图形用户接口或用户接口的部分被镜像显示在至少一个显示单元上。换言之,正在被示出在输入设备(例如,触摸屏设备)上的影像的子集能够被绘制在显示设备上,或者输入设备上的该影像的示意表示能够被呈现在显示设备上。
在范例中,至少一个输入单元包括具有屏幕的接近度设备,并且用户正在接近或已经接近的图形用户接口或用户接口的部分以示意形式被呈现在至少一个显示单元上。在范例中,至少一个输入单元包括具有屏幕的接近度设备,并且用户正在接近或已经接近的图形用户接口或用户接口的部分被镜像显示在至少一个显示单元上。
根据范例,如果输入单元图像数据包第一数据的至少部分,那么处理单元被配置为显示第二图像数据而不将被显示在至少一个输入单元上的任何第一数据显示为第二图像数据的部分。
换言之,如果输入单元(例如,触摸屏)正在示出已经被呈现在至少一个显示单元上的影像,那么该影像不会被重现在显示设备上。例如,图像A能够被呈现在显示单元上,并且图像B能够连同屏幕的右侧上的多个功能按钮一起被示出在输入单元上。如果用户正在与屏幕的右上侧的按钮交互,那么这些按钮连同这些按钮附近或周围的图像B的部分以及图像A能够被一起显示在显示单元上。然而,如果输入单元正在示出图像A而不是图像B,那么仅用户正在与之交互的输入单元的右上侧的按钮被显示在显示单元上。以此方式,冗余数据不会被呈现给用户。换言之,如果患者的血管区域的图像被示出在输入单元(例如,触摸设备)的屏幕上,并且相同放大水平下的相同图像正在被示出在显示单元(例如,查看设备)上,那么来自触摸设备的血管图像数据不会被重现在查看设备上,并且仅用户正在与之交互的其他图像数据(例如,与具有图像操纵功能的按钮有关的其他图像数据)会被重现在查看设备上。在范例中,如果相同的图像数据被示出在至少一个输入单元上(如被示出在显示单元上)但是在不同的放大水平下被示出,那么在用户正在输入单元的该区域处交互的情况下,该图像数据可以被重现在显示单元上。
根据范例,用户输入区包括多个区域,并且其中,用户输入区的用户交互部分包括至少一个区域。
在范例中,仅用户正在与之交互的至少一个输入单元(例如,触摸设备或接近度设备)的用户接口或图形用户接口的区域被绘制在至少一个显示单元(例如,查看设备)上。在范例中,区域相当于输入设备上的面板。
根据范例,第一数据包括第一图形用户接口,并且第二图像数据包括第二图形用户接口的部分,并且其中,第二图形用户接口的该部分被绘制在第一图形用户接口的部分附近。
换言之,用户正在与之交互的输入设备上的影像的部分能够被示出在显示设备上的如下地方:在正在被示出在显示设备上的所有内容附近或者在正在被示出的大多数内容附近。换言之,原始影像能够被重新设定尺寸,以便将新的影像呈现在旧的影像附近,或者能够将新的影像叠加在旧的影像的一侧上面。
根据范例,第一数据包括第一图形用户接口,并且第二图像数据包括第二图形用户接口的部分,并且其中,第二图形用户接口的该部分与第一图形用户接口的部分混合。
在范例中,混合量取决于指示设备到输入设备的距离。例如,当用户的手指接近输入单元(例如,触摸设备)时,集中在手指(在屏幕上面)的位置周围的触摸设备的区域被呈现在至少一个显示单元(例如,查看设备)上。在范例中,当用户的手指接近触摸设备屏幕或从触摸设备屏幕远去时,被呈现在查看设备上的来自触摸设备的图像相应地变得更亮和变暗淡。
根据范例,第一数据包括第一图形用户接口,并且第二图像数据包括第二图形用户接口的部分,并且其中,第二图形用户接口的该部分被绘制在第一图形用户接口的部分内部。
换言之,能够根据需要来控制或调节对第二图像数据(例如,正在被呈现在触摸屏上并且表示或镜像显示用户正在与之交互的触摸屏的内容的内容的部分)的定位。
根据范例,处理单元被配置为当用户在至少一个输入单元的用户输入区的至少一个部分上面移动手时确定用户交互部分。
例如,处理单元确定用户已经在输入单元的触摸屏的右手部分上面移动他们的手,并且被示出在触摸屏的右手部分处的按钮和/或图像数据连同已经被显示在至少一个显示单元上的图像数据的至少部分一起被显示在至少一个显示单元上。在范例中,用户能够同时在多个区域(例如,触摸设备/接近度设备的左手区和右手区)上面盘旋他们的手。
根据范例,处理单元被配置为当用户触摸至少一个输入单元的用户输入区的部分时确定用户交互部分。
例如,处理单元确定用户已经触摸输入单元的触摸设备/接近度设备的右手部分,并且被示出在触摸屏的右手部分处的按钮和/或图像数据连同已经被显示在至少一个显示单元上的图像数据的至少部分一起被显示在至少一个显示单元上。
根据范例,处理单元被配置为当指针在至少一个输入单元的用户输入区的部分上面移动时确定用户交互部分。
在范例中,指针包括被显示在至少一个输入单元的用户输入区上的光标。例如,处理单元确定用户已经在输入单元的屏幕的右手部分上面移动光标,并且被示出在触摸屏的右手部分处的按钮和/或图像数据连同已经被显示在至少一个显示单元上的图像数据的至少部分一起被显示在至少一个显示单元上。
根据范例,处理单元被配置为确定用户交互部分的局部化的用户交互位置,并且其中,第二图像数据包括表示局部化的用户交互位置的图像数据。
在范例中,局部化的交互位置包括被显示在至少一个输入单元的用户输入区上的光标的位置。
根据范例,根据来自用户的输入来启用或禁用在至少一个显示单元上对第二图像数据的显示。
以此方式,能够在必要时启用/禁用所要求的功能,例如基于用户的手接近、触摸输入单元(例如,触摸设备或接近度设备)或从输入单元(例如,触摸设备或接近度设备)移除,或者基于来自用户的其他输入。在范例中,来自用户的输入包括正在被按压的按钮或踏板。在范例中,来自用户的输入包括来自用户的输入的持续时间。换言之,能够应用时间方面的阈值,并且如果来自用户的输入(例如,用户的手正在特定位置中)超过一定时间,那么启用在至少一个显示单元上对第二图像数据的显示。
在范例中,能够具有多于一个的显示单元。在范例中,能够具有多于一个的输入单元。在范例中,能够具有多于一个的显示单元并且具有多于一个的输入单元。
图3示出了一个输入设备和两个显示设备,输入设备以触摸设备的形式被示出在底部并被标记为“触摸”,显示设备以台式电脑和查看设备的形式被示出在中间和顶部并被标记为“台式电脑”和“查看”。显示设备正在示出正在被示出在触摸设备上的内容的放大部分。这种布置表示一个或多个查看设备用于主视觉反馈并且触摸设备用于交互目的的方法。触摸设备能够具有其自身的用户UI或GUI(例如,手机)或者没有UI或GUI(例如,鼠标垫或TV远程控制)。在该方法中,用户当在触摸设备上交互时不能在查看设备上得到关于触摸设备在哪里交互的直接视觉反馈。例如,如图3所示,当触摸设备具有UI或GUI并且UI或GUI示出与正在被显示在查看设备的UI或GUI上的内容不同的内容时,确定指示设备(例如,光标)在触摸设备的UI或GUI上位于哪里会是不清楚的或困难的。在当前方法中,大按钮在触摸设备上被放置在容易被手交互找到的位置处,如在图3中示出的触摸设备的屏幕上所表示的。然而,用户需要观看触摸设备以找到感兴趣的功能(例如,按钮),并且在按压按钮或将光标定位在按钮上面并点击之后,用户必须回头看查看设备以判断结果。
本公开内容的用于显示数据的装置和方法可应用于各种各样的设备设置。例如:
当观看示出触摸设备的UI的电视(查看设备)时在移动手机或平板电脑(触摸设备)上交互。例如,充当远程控制UI的平板电脑UI能够被直接绘制在电视上。
当观看示出X射线图像的检查室屏幕(查看设备)时在X射线设备的检查台侧模块(触摸设备)上交互。
例如,该装置和方法能够在以下情况下进行使用:
使用情况1:在图4和图5中呈现了使用情况1,图4和图5示出了正在由本公开内容的用于显示数据的范例装置显示的数据的范例。在图4和图5中,在顶部图像中示出了呈以具有UI的触摸设备形式的输入单元,并且在底部图像中示出了呈以具有UI的查看设备形式的显示单元。总的来说,当用户的手来到触摸设备UI的右侧上面时,触摸设备UI的该部分(即,右侧面板或右侧区域)被混合在查看设备UI中。此外,任选地,在查看设备UI中,用户的手正在其上面盘旋的按钮或触摸设备UI上的正在被触摸的按钮被突出显示。更详细地,对于输入单元是检查台侧模块(TSM)并且显示单元是检查室监视器的情况:
用户在检查台侧模块(TSM)的右侧面板中的按钮上面移动他的手。
示出按钮的面板UI的绘制结果被显示在检查室监视器上,并且任选地直接示出用户正在其上面盘旋(或触摸)的按钮。
用户按压按钮并且能够在检查室监视器上的X射线图像上直接看见效果。
用户移动手远离检查台侧模块。
面板UI绘制结果从检查室监视器中消失,在检查室中留下干净的、不使人分心的UI。
使用情况2:在图6和图7中呈现了使用情况2,图6和图7示出了正在由本公开内容的用于显示数据的范例装置显示的数据的范例。在图6和图7中,呈以具有UI的触摸设备形式的输入单元(未示出)正在示出如针对图4和图5的输入单元所示出的影像。在图6和图7中,示出了呈以具有UI的查看设备形式的显示单元。总的来说,在收到来自用户的适当指示后,触摸设备的整个UI被示出在查看设备UI的顶部上。在另一布置中,在收到用户的指示后,如上面关于图4和图5所讨论的触摸设备的子集被示出在查看设备UI的顶部上,并且再次地,能够识别出用户正在与之交互的特定按钮。更详细地,对于输入单元是检查台侧模块(TSM)并且显示单元是检查室监视器的情况:
用户按压踏板/按钮。
在检查室中,TSM应用的UI在检查室监视器上的X射线查看器应用的顶部上完整绘制TSM UI。
利用清楚的指针来指示手指的位置(参见图6和图7,其中,圆形阴影点被呈现在对比/亮度功能按钮上面)。
用户释放踏板。
检查室监视器示出X射线查看器应用。
关于根据本公开内容的用于显示数据的装置和方法,多种实施例是可能的:
触摸设备的UI在查看设备的UI内的定位能够被调节如下:
触摸设备的UI能够被直接绘制在查看设备的UI附近;
触摸设备的UI能够与查看设备的UI混合。混合量能够取决于指示设备到触摸设备的距离;
触摸设备的UI能够被绘制在查看设备的UI内部。
触摸设备的UI的内容能够部分地在查看设备的UI中,以减少反馈所需的屏幕区的量。这能够取决于指示设备关于触摸设备UI的位置,例如当指示设备在左侧时仅从左侧面板示出按钮,并且当指示设备在右侧时仅从右侧面板示出按钮。参见图4和图5。
能够以如下方式启用/禁用触摸设备UI在查看设备上的绘制:
经由使得触摸设备UI能够被绘制在查看设备上的硬件或软件开关;
通过指示设备与触摸设备的接近度或接触的持续时间。
一般来说,能够通过以下方式来实施对单个应用的不同UI的绘制:
在计算机程序(过程)上运行UI的逻辑和绘制;
使绘制结果流到不同的UI设备。
这允许处理中间过程中的交互并将绘制结果分布到不同的UI设备。一般来说,能够具有多个显示单元(例如,查看设备)和多个输入单元(例如,触摸设备)。
图8示出了用于利用范例工作流显示数据的范例装置的技术实施方式的范例。参考在图8中示出的物理单元并参考同样如在图8中示出的圆圈数字1-6,现在解释范例工作流,其中,下面的编号涉及图8中的圆圈数字:
UI片段PC绘制UI片段并将UI片段中的某些逻辑区指定为混合目标或混合源。混合目标是UI片段的另一部分能够被混合到其中的UI片段的(逻辑)部分。混合源是将会被混合到目标中的UI片段的(逻辑)部分。能够使用像OpenGL、DirectX、GDI的绘制框架来执行绘制,或者能够自主开发绘制。能够通过使用第三方UI框架(例如,WPF、QT)来实现UI创建,或者能够自主开发UI创建。
计算机经由流(这能够是像DVI的视频流或经由UDP的网络流)向服务于前端的后端(Backend-for-Frontend)(BFF)PC发送UI片段。其中,UI构图器对UI片段进行构图。
经由接口,UI构图器具有关于不同UI的混合目标区和混合源区的信息。该接口能够基于若干技术:RPC API、REST或HTTP等。在BFF上运行的UI构图器程序使用这些接口来“链接”混合目标和混合源。
UI构图器具有关于不同屏幕设备的信息。在BFF PC上运行的软件程序能够规定不同的UI片段应当被如何构图以及被如何示出在屏幕上。
在BFF上运行的交互协调器程序确保屏幕设备上的所有用户交互都被捕捉到。
交互协调器将输入事件路由回到相关的UI片段PC,所述相关的UI片段PC然后能够将所要求的逻辑应用于交互处理。信息能够经由网络流或经由模拟的鼠标/键盘事件被发送。
在上面的范例中,各种布置是可能的。例如,代替2个UI片段PC,能够存在1个(或多于2个)UI片段PC,并且代替在单独的BFF PC上运行用于UI构图和交互协调的逻辑,可以在UI片段PC中的一个上运行用于UI构图和交互协调的逻辑(即,能够提供单个PC解决方案)。另外,在上述内容中,PC能够是计算机单元或处理单元,并且UI构图器能够例如是UI构图器计算机程序。
在另一示例性实施例中,提供了用于控制特征为被配置为运行根据前述实施例中的一个的方法的步骤的适当***的计算机程序或计算机程序单元。
因此,计算机程序单元可以被存储在计算机单元上,所述计算机单元也可以是实施例的部分。该计算单元可以被配置为执行或引发执行上述方法的步骤。此外,该计算单元可以被配置为操作上面描述的装置的部件。计算单元能够被配置为自动操作和/或运行用户的命令。计算机程序可以被加载到数据处理器的工作存储器中。因此,数据处理器可以被装备为执行根据前述实施例中的一个的方法。
本发明的该示范性实施例覆盖从一开始就使用本发明的计算机程序,以及借助于将现有程序更新转换为使用本发明的程序的计算机程序二者。
此外,计算机程序单元可以能够提供所有必要步骤以完成如上所述的方法的示范性实施例的流程。
根据本发明的另外的示范性实施例,提出了一种计算机可读介质,例如,CD-ROM,其中,该计算机可读介质具有被存储于所述计算机可读介质上的计算机程序单元,所述计算机程序单元由前面的章节所描述。
计算机程序可以被存储和/或被分布在合适的介质上,例如,与其他硬件一起或作为其他硬件的部分供应的光学存储介质或固态介质,但是也可以以其他形式被分布,例如,经由互联网或其他有线或无线的电信***被分布。
然而,计算机程序也可以被呈现在网络上,如万维网,并且能够从这样的网络被下载到数据处理器的工作存储器中。根据本发明的另外的示范性实施例,提供了用于使计算机程序单元可用于下载的介质,所述计算机程序单元被布置为执行根据本发明的先前描述的实施例中的一个所述的方法。
必须注意,本发明的实施例是参考不同主题来描述的。尤其地,一些实施例是参考方法型权利要求来描述的,而其他实施例是参考装置型权利要求来描述的。然而,除非另有说明,本领域技术人员将从以上和以下的描述中推断出,除属于一种类型的主题的特征的任意组合之外,涉及不同主题的特征之间的任意组合也被认为在本申请中被公开。然而,所有的特征都能够被组合来提供多于特征的简单加合的协同效应。
尽管已经在附图和前面的描述中详细图示和描述了本发明,但是这样的图示和描述应当被认为是图示性或示范性的,而非限制性的。本发明不限于所公开的实施例。本领域技术人员通过研究附图、公开内容以及从属权利要求,在实践请求保护的发明时能够理解并实现对所公开的实施例的其他变型。
在权利要求中,“包括”一词不排除其他元件或步骤,并且词语“一”或“一个”不排除多个。单个处理器或其他单元可以实现在权利要求中记载的若干项的功能。尽管某些措施被记载在互不相同的从属权利要求中,但是这并不指示不能有利地使用这些措施的组合。权利要求中的任何附图标记都不应被解释为对范围的限制。

Claims (14)

1.一种用于显示数据的装置(50),包括:
-至少一个显示单元(60);
-至少一个触摸输入单元(70),其包括具有显示屏(90)的用户输入区,所述显示屏被配置为显示表示图形用户接口的输入单元图像数据;以及
-处理单元(80);
其中,所述处理单元被配置为在所述至少一个显示单元上显示第一图像数据;
其中,所述处理单元被配置为确定所述图形用户接口的用户交互部分,并且
其中,所述处理单元被配置为在所述至少一个显示单元上同时显示所述第一图像数据与第二图像数据,所述第二图像数据表示所述图形用户接口的所述用户交互部分。
2.根据权利要求1所述的装置,其中,所述图形用户接口包括多个区域,并且所述用户交互部分对应于所述多个区域中用户正在与之交互的区域。
3.根据权利要求1或2所述的装置,其中,所述第二图像数据对应于针对所述图形用户接口的所述用户交互部分的所述输入单元图像数据。
4.根据任一前述权利要求所述的装置,其中,所述第一图像数据包括另外的图形用户接口,并且其中,所述第二图像数据被绘制在所述另外的图形用户接口的部分附近。
5.根据任一前述权利要求所述的装置,其中,所述第一图像数据包括另外的图形用户接口,并且其中,所述第二图像数据与所述另外的图形用户接口的部分混合。
6.根据任一前述权利要求所述的装置,其中,所述第一图像数据包括另外的图形用户接口,并且其中,所述第二图像数据被绘制在所述另外的图形用户接口的部分内部。
7.根据任一前述权利要求所述的装置,其中,所述处理单元被配置为当用户在所述图形用户接口的所述多个区域中的至少一个区域上面移动手时确定所述用户交互部分。
8.根据任一前述权利要求所述的装置,其中,所述处理单元被配置为当用户触摸所述图形用户接口的所述多个区域中的至少一个区域时确定所述用户交互部分。
9.根据任一前述权利要求所述的装置,其中,所述处理单元被配置为当指针在所述图形用户接口的所述多个区域中的至少一个区域上面移动时确定所述用户交互部分。
10.根据任一前述权利要求所述的装置,其中,根据来自所述用户的输入来启用或禁用在所述至少一个显示单元上对所述第二图像数据的显示。
11.一种医学成像***,包括根据任一前述权利要求所述的装置,其中,所述显示单元被配置为顶置监视器,并且所述触摸输入单元被配置为检查台侧模块。
12.一种用于显示数据的方法(10),包括:
a)在至少一个显示单元上显示(20)第一图像数据;
b)确定(30)触摸输入设备上的图形用户接口的用户交互部分,并且
c)在所述至少一个显示单元上同时显示(40)所述第一数据的部分与第二图像,所述第二图像表示所述图形用户接口的所述用户交互部分。
13.一种用于控制根据权利要求1至10中的一项所述的装置的计算机程序,所述计算机程序当由处理器运行时被配置为执行根据权利要求11所述的方法。
14.一种存储有根据权利要求13所述的程序单元的计算机可读介质。
CN201680067209.7A 2015-10-02 2016-09-30 用于显示数据的装置 Pending CN108292194A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15188101 2015-10-02
EP15188101.8 2015-10-02
PCT/EP2016/073378 WO2017055523A1 (en) 2015-10-02 2016-09-30 Apparatus for displaying data

Publications (1)

Publication Number Publication Date
CN108292194A true CN108292194A (zh) 2018-07-17

Family

ID=54293065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680067209.7A Pending CN108292194A (zh) 2015-10-02 2016-09-30 用于显示数据的装置

Country Status (5)

Country Link
US (2) US10957441B2 (zh)
EP (2) EP3936991A1 (zh)
JP (2) JP7059178B6 (zh)
CN (1) CN108292194A (zh)
WO (1) WO2017055523A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102664B1 (en) * 2014-12-03 2018-10-16 Charles Schwab & Co., Inc. System and method for causing graphical information to be rendered
US11040214B2 (en) 2018-03-01 2021-06-22 West Affum Holdings Corp. Wearable cardioverter defibrillator (WCD) system having main UI that conveys message and peripheral device that amplifies the message
JP7212145B2 (ja) 2018-08-31 2023-01-24 ベンタナ メディカル システムズ, インコーポレイテッド コンテキスト適応型デジタル病理インタフェース
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
US11759110B2 (en) * 2019-11-18 2023-09-19 Koninklijke Philips N.V. Camera view and screen scraping for information extraction from imaging scanner consoles
US20230009306A1 (en) * 2019-12-06 2023-01-12 Flatfrog Laboratories Ab An interaction interface device, system and method for the same
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
USD986262S1 (en) * 2021-07-01 2023-05-16 Olympus Medical Systems Corporation Display screen with graphical user interface

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070198141A1 (en) * 2006-02-21 2007-08-23 Cmc Electronics Inc. Cockpit display system
CN101963840A (zh) * 2009-07-22 2011-02-02 罗技欧洲公司 用于远程、虚拟屏幕输入的***和方法
US20110214053A1 (en) * 2010-02-26 2011-09-01 Microsoft Corporation Assisting Input From a Keyboard
CN102439543A (zh) * 2009-05-21 2012-05-02 微软公司 可视化输入位置的方法
US20120242571A1 (en) * 2011-03-24 2012-09-27 Takamura Shunsuke Data Manipulation Transmission Apparatus, Data Manipulation Transmission Method, and Data Manipulation Transmission Program
CN103228052A (zh) * 2012-01-31 2013-07-31 捷讯研究有限公司 具有无线局域网和蜂窝调度的移动无线通信设备及其方法
CN103677711A (zh) * 2012-09-10 2014-03-26 三星电子株式会社 连接移动终端和外部显示器的方法和实现该方法的装置
US20150163443A1 (en) * 2013-12-06 2015-06-11 Samsung Electronics Co., Ltd. Display apparatus, remote controller, display system, and display method

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0541507U (ja) * 1991-11-07 1993-06-08 横河メデイカルシステム株式会社 画像診断装置
JP2000242383A (ja) 1999-02-19 2000-09-08 Nec Corp 画面表示拡大制御装置
JP4429635B2 (ja) * 2003-06-04 2010-03-10 株式会社日立メディコ 医用画像診断装置とその操作情報表示方法
JP2006209381A (ja) 2005-01-27 2006-08-10 Digital Electronics Corp 制御用表示装置、そのプログラムおよび記録媒体
JP2006285598A (ja) 2005-03-31 2006-10-19 Fujitsu Ten Ltd タッチパネル装置、タッチパネル装置の操作支援方法、及びタッチパネル装置の操作支援プログラム
JP2007233459A (ja) 2006-02-27 2007-09-13 Mitsubishi Electric Corp プログラマブル表示器
DE102006053261B4 (de) * 2006-11-11 2015-04-16 Visus Technology Transfer Gmbh System zur Wiedergabe medizinischer Bilder
US20080267499A1 (en) * 2007-04-30 2008-10-30 General Electric Company Method and system for automatic detection of objects in an image
WO2010083821A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
JP2011072532A (ja) * 2009-09-30 2011-04-14 Konica Minolta Medical & Graphic Inc 医用画像診断装置、および超音波診断装置
JP2011120785A (ja) * 2009-12-11 2011-06-23 Toshiba Corp 医療用画像診断装置
US8621213B2 (en) * 2010-06-08 2013-12-31 Merge Healthcare, Inc. Remote control of medical devices using instant messaging infrastructure
US20120182244A1 (en) 2010-06-11 2012-07-19 Systemsone, Llc Integrated Multi-Display with Remote Programming and Viewing Capability
KR101166895B1 (ko) 2011-01-10 2012-07-18 터치디스플레이 주식회사 차량용 통합조작장치
JP5808404B2 (ja) * 2011-05-27 2015-11-10 京セラ株式会社 電子機器
JP5823535B2 (ja) * 2011-11-30 2015-11-25 富士フイルム株式会社 医療システム
US20130194188A1 (en) * 2012-01-31 2013-08-01 Research In Motion Limited Apparatus and method of facilitating input at a second electronic device
JPWO2014112095A1 (ja) 2013-01-18 2017-01-19 三菱電機株式会社 情報表示制御装置
CN105120765A (zh) 2013-03-15 2015-12-02 火山公司 通用患者接口模块以及相关联的设备、***和方法
JP2015014998A (ja) 2013-07-08 2015-01-22 船井電機株式会社 操作システム
CN105900161A (zh) * 2013-08-22 2016-08-24 麦卡斯音乐公司 交互式钢琴训练***
WO2016027959A1 (en) * 2014-08-22 2016-02-25 Samsung Medison Co., Ltd. Method, apparatus, and system for outputting medical image representing object and keyboard image
JP6791617B2 (ja) * 2015-06-26 2020-11-25 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波画像表示装置及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070198141A1 (en) * 2006-02-21 2007-08-23 Cmc Electronics Inc. Cockpit display system
CN102439543A (zh) * 2009-05-21 2012-05-02 微软公司 可视化输入位置的方法
CN101963840A (zh) * 2009-07-22 2011-02-02 罗技欧洲公司 用于远程、虚拟屏幕输入的***和方法
US20110214053A1 (en) * 2010-02-26 2011-09-01 Microsoft Corporation Assisting Input From a Keyboard
US20120242571A1 (en) * 2011-03-24 2012-09-27 Takamura Shunsuke Data Manipulation Transmission Apparatus, Data Manipulation Transmission Method, and Data Manipulation Transmission Program
CN103228052A (zh) * 2012-01-31 2013-07-31 捷讯研究有限公司 具有无线局域网和蜂窝调度的移动无线通信设备及其方法
CN103677711A (zh) * 2012-09-10 2014-03-26 三星电子株式会社 连接移动终端和外部显示器的方法和实现该方法的装置
US20150163443A1 (en) * 2013-12-06 2015-06-11 Samsung Electronics Co., Ltd. Display apparatus, remote controller, display system, and display method

Also Published As

Publication number Publication date
JP7059178B6 (ja) 2022-06-02
EP3356923A1 (en) 2018-08-08
US20180275836A1 (en) 2018-09-27
JP2018534667A (ja) 2018-11-22
JP2022078047A (ja) 2022-05-24
JP7059178B2 (ja) 2022-04-25
US10957441B2 (en) 2021-03-23
EP3936991A1 (en) 2022-01-12
US20210210194A1 (en) 2021-07-08
WO2017055523A1 (en) 2017-04-06

Similar Documents

Publication Publication Date Title
CN108292194A (zh) 用于显示数据的装置
Ebert et al. You can’t touch this: touch-free navigation through radiological images
US6359612B1 (en) Imaging system for displaying image information that has been acquired by means of a medical diagnostic imaging device
Svanæs et al. Usability testing of mobile ICT for clinical settings: Methodological and practical challenges
US20100223566A1 (en) Method and system for enabling interaction with a plurality of applications using a single user interface
US20100179390A1 (en) Collaborative tabletop for centralized monitoring system
US20120278759A1 (en) Integration system for medical instruments with remote control
US20150277703A1 (en) Apparatus for digital signage alerts
Kollee et al. Exploring gestural interaction in smart spaces using head mounted devices with ego-centric sensing
Jorritsma et al. Merits of usability testing for PACS selection
Hötker et al. Speech and motion control for interventional radiology: requirements and feasibility
Zhang et al. Exploring factors influencing multitasking interaction with multiple smart devices
JP2020081280A (ja) 画像表示制御システム、画像表示システム及び画像解析装置
Opromolla et al. A usability study of a gesture recognition system applied during the surgical procedures
JP5238919B2 (ja) ファイナルフレームワーク
Cox et al. Augmented reality in medical devices
Hui et al. A new precise contactless medical image multimodal interaction system for surgical practice
Ritter et al. Combining Mobile Devices and Workstations for the reading of medical images
Ong et al. Application of KinectTM and wireless technology for patient data recording and viewing system in the course of surgery
Stuij Usability evaluation of the kinect in aiding surgeon computer interaction
US20240019980A1 (en) Controlling a 2d screen interface application in a mixed reality application
Harz et al. A novel workflow-centric breast MRI reading prototype utilizing multitouch gestures
Tijai et al. Graphical User Interface Design Guideline for an Automatic Machine Using an Official Raspberry Pi Touch Screen
Sharma et al. Design Considerations for X-ray Software Controls
WO2024126119A1 (en) User interface control

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination