CN109564471B - 具有主/次交互特征的分布式交互医学可视化*** - Google Patents
具有主/次交互特征的分布式交互医学可视化*** Download PDFInfo
- Publication number
- CN109564471B CN109564471B CN201780048904.3A CN201780048904A CN109564471B CN 109564471 B CN109564471 B CN 109564471B CN 201780048904 A CN201780048904 A CN 201780048904A CN 109564471 B CN109564471 B CN 109564471B
- Authority
- CN
- China
- Prior art keywords
- user
- user interface
- perspective
- processing circuit
- visualization system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/32—Transforming X-rays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Architecture (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本文的实施例涉及具有主/次交互特征的分布式交互医学可视化***以及相关方法。在实施例中,包括了一种分布式交互医学可视化***。所述***可以包括第一视频处理电路以及与所述第一视频处理电路通信的第一中央处理电路。所述***还可以包括第一通信电路。所述***还可以包括由所述第一视频处理电路生成的主用户界面。所述主用户界面可以包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,所述第一视角被配置为由主用户控制。所述主用户界面可以包括命令界面对象,其中,接合可以使得次用户界面开始在所述受检者的解剖结构的所述三维模型上镜像所述主用户的所述视角。本文中还包括其他实施例。
Description
本申请作为PCT国际专利申请于2017年8月8日,在所有指定国以美国国营公司波士顿科学希梅德公司(Boston Scientific Scimed,Inc.)作为申请人的名义,并且在所有指定国以美国公民Kenneth Matthew Merdan和美国公民David M.Flynn和美国公民Gregory Ernest Ostenson和美国公民Benjamin Bidne和美国公民Robbie Halvorson以及美国公民Eric A.Ware作为发明人的名义进行提交,并且要求2016年8月12日提交的美国临时专利申请号62/374,319的优先权,该临时专利申请的内容通过引用以其全部内容结合在本文中。
技术领域
本文的实施例涉及具有主/次交互特征的分布式交互医学可视化***以及相关方法。
背景技术
医学诊断和治疗经常借助于或在一些情况下基于患者的解剖结构的一个或多个部分的视觉观察。最常见的是,这种视觉观察是通过对临床医生用肉眼可见的对象进行直接物理观察来执行的。在外科手术场景中,这可以包括对内部器官的视觉观察。
各种仪器已经被配置为具有光学器件或电子成像相机,以允许对原本可能难以看到的患者的解剖结构的部分的视觉观察。以举例的方式,支气管镜、内窥镜等都允许临床医生可视地观察到原本隐藏的解剖结构的部分。
用于医学成像的技术也大大扩展了临床医生可视地观察患者的解剖结构的部分的能力。从诸如x射线照相术等技术开始,并且这些技术后来包括诸如荧光镜透视检查、计算机化轴向断层扫描(CAT)和磁共振成像(MRI)等技术,查看患者的解剖结构的部分的能力从未如此强大。然而,在许多情况下,由医学成像***生成的图像是二维的,并且因此需要高水平的技能以便准确地解释。一些成像***提供图像,该图像包括三维信息但在二维显示器上渲染,导致三维信息的许多值丢失。
发明内容
本文的实施例包括具有主/次交互特征的分布式交互医学可视化***以及相关方法。在第一方面,包括了分布式交互医学可视化***,其具有第一视频处理电路以及与该第一视频处理电路通信的第一中央处理电路。该***还可以包括与该第一中央处理电路通信的第一通信电路。该***还可以包括由该第一视频处理电路生成的主用户界面。该主用户界面可以包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。该主用户界面可以进一步包括命令界面对象,其中,该命令界面对象的接合使得次用户界面开始在该受检者的解剖结构的该三维模型上镜像该主用户的该视角。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第二方面,三维模型可以包括实时采集的患者数据、先前存储的患者数据和理想化模型数据中的一者或多者。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第三方面,关于主用户的当前视角的信息通过网络来广播。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第四方面,关于次用户的当前视角的信息通过网络来广播。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第五方面,第一视频处理电路与显示主用户界面的机器协同定位。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第六方面,第一视频处理电路被定位成远离显示主用户界面的机器。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第七方面,命令界面对象的接合使得主用户界面以镜像方式显示来自次用户的视角的受检者的解剖结构的三维模型,其中,该次用户可以改变该受检者的解剖结构的三维模型的视角。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第八方面,包括了分布式交互医学可视化***,其具有第一视频处理电路以及与该第一视频处理器通信的第一中央处理电路。该***还可以包括与该第一中央处理电路通信的第一通信电路。该***还可以包括由该第一视频处理电路生成的主用户界面。该主用户界面可以包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。该用户界面还可以包括正在查看相同的三维或更多维图形表示的一个或多个次用户的一个或多个图形表示,其中,该一个或多个图形用户表示中的每一个对该一个或多个次用户是不可见的。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第九方面,包括了分布式交互医学可视化***,其具有第一视频处理电路以及与该第一视频处理电路通信的第一中央处理电路。该***还可以包括与该第一中央处理电路通信的第一通信电路。该***还可以包括由该第一视频处理电路生成的主用户界面。该***还可以包括由一个或多个次视频处理电路生成的一个或多个次用户界面,这些次用户界面中的每一个包括来自第一视角的受检者的解剖结构的至少一部分的三维模型。该主用户界面可以进一步包括命令功能对象,其中,一个或多个次用户的选择以及该命令功能对象的接合使得将形成用户组。该主用户界面可以允许主用户为所选择的用户组以组级来指定界面设置。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第十方面,包括了分布式交互医学可视化***,其具有第一视频处理电路以及与该第一视频处理电路通信的第一中央处理电路。该***还可以包括与该第一中央处理电路通信的第一通信电路。该***还可以包括由该第一视频处理电路生成的主用户界面。该主用户界面可以包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。该主用户界面可以进一步包括命令功能对象,其中,该命令界面对象的接合允许主用户从一组次用户中选择一个次用户,其中,所选择的次用户获得引导在由主用户和其他次用户查看的三维模型上的视角的能力。
除了前述方面或以下方面中的一个或多个方面之外,或者在一些方面的替代方案中,在第十一方面,包括了分布式交互医学可视化***,其具有第一视频处理电路以及与该第一视频处理电路通信的第一中央处理电路。该***还可以包括与该第一中央处理电路通信的第一通信电路。该***还可以包括由该第一视频处理电路生成的主用户界面。该主用户界面可以包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。该主用户界面可以进一步包括命令功能对象,其中,该命令界面对象的接合允许主用户创建用于将在一个或多个次用户界面上显示的一个或多个次用户的通信。
此发明内容部分是本申请的一些传授内容的概述,并且不旨在排他地或穷尽地处理本发明主题。在具体实施方式和所附权利要求书中可找到进一步的细节。当阅读和理解以下详细说明并且查看形成该详细说明的一部分的附图时,其他方面对于本领域技术人员而言将是清楚的,这些附图中的每一个均不具有限制意义。本文的范围是由所附权利要求和它们的法律等效物来限定。
附图说明
结合以下附图可以更完全地理解多个方面,在附图中:
图1是根据本文各个实施例的分布式交互医学可视化***的方面的示意图。
图2是展示了根据本文各个实施例的特定用户的视角的实施例的三维模型的示意图。
图3是根据本文各个实施例的分布式交互医学可视化***的示意图。
图4是根据本文各个实施例的分布式交互医学可视化***的示意图。
图5是根据本文各个实施例示出的示例性用户界面的示意图。
图6是根据本文各个实施例的三维解剖模型的示意图。
图7是示出了用于生成三维解剖模型的数据源的示意图。
图8是根据本文一些实施例的各种部件的简图。
图9是根据本文各个实施例的示例性图形流水线的各种部件的简图。
虽然实施例容易有各种不同的修改和替代形式,但已经通过举例和绘图方式示出了其详细内容并且将进行详细描述。然而,应理解的是,本文的范围并不受限于所描述的具体实施例。与此相反,本发明将覆盖落入本文的精神和范围内的修改、等效物、以及替代方案。
具体实施方式
本文所述的实施例并非旨在是穷尽的或将本发明限制于在下面的详细说明中披露的确切形式。而是,选择和描述这些实施例以使本领域的其他技术人员可以领会并且理解其原理和实践。
本文中所提及的所有出版物和专利以引用方式并入本文。单独地针对其披露内容来提供本文所披露的出版物和专利。本文中的内容均不应解释为是承认发明人无权先于任何出版物和/或专利(包括本文中引用的任何出版物和/或专利)。
有许多技术可借以采集视觉解剖数据。技术可以包括x射线照相术、荧光镜透视检查、计算机化轴向断层扫描(CAT)、磁共振成像(MRI)等。传统上来讲,使用此类信息的一个挑战是生成的图像通常是二维的并且需要高水平的技能以便正确地解释。一些成像***提供图像,该图像包括三维信息但在二维显示器上渲染,导致三维信息的许多值丢失。
各种更新的技术允许三维图像数据以对用户呈现为反映三个维度的方式进行显示。虽然这些技术有差别,但它们通常基于向用户的每只眼睛显示稍微不同的图像的基本原理,从而允许***用户体验三维图像的感觉。在三个维度显示视觉信息是允许用户快速地基于其所见进行学习的巨大进步。
本文提供了用于允许多个个体(用户)同时与相同的三维图像模型交互的***和方法。在许多场景中,允许多个个体同时与相同的三维图像模型交互提供了独特的益处。例如,在教学场景中,相较于原本可能的情况,允许主用户(诸如教师或领导者)以及一个或多个次用户(诸如学生或跟随者)同时与三维解剖模型交互可以允许主用户传达更多关于解剖模型的信息。此外,通过在三个维度体验可视化,该一个或多个次用户可以提高他们的学习速度。
现在参考图1,示出了根据本文各个实施例的分布式交互医学可视化***100的方面的示意图。分布式交互医学可视化***100可以包括受检者的解剖结构104的至少一部分的三维模型102。三维模型102可以在X、Y和Z维度上延伸。多个个体可以同时与三维模型102进行交互。例如,主用户106以及一个或多个次用户108、110可以同时查看三维模型102并与之进行交互。在一些实施例中,每个用户可以从他们自己的视角查看模型102。以举例的方式,主用户106可以从第一视角116查看模型102,而第一次用户108可以从第二视角118查看模型102,并且第二次用户110可以从第三视角120查看模型102。
可以以各种方式定义与模型102进行交互的每个单个用户的视角。在一些实施例中,单个视角可以包括指示单个用户的视图或视觉的起始点的坐标。这允许用户随其起始点变化而“移动”通过模型。在一些实施例中,单个视角还可以包括指示用户当前从其起始点查看的方向的角度。
现在参考图2,示出了展示特定用户的视角的实施例的三维模型102的示意图。在一些实施例中,特定用户的视角可以包括位置和观察角度。例如,模型可以包括X(222)、Y(224)和Z(226)维度。模型的总体积可以是X、Y和Z维度中的每个维度的最大量值的乘积。个体的视角可以包括处于最大的X、Y和Z边界内的位置(或起始点)。例如,起始点230可以表示在三维模型内的特定个体的当前位置。为了表示特定用户的视角,模型也可以将观察角度考虑在内。例如,通过使用反映在XY平面内的旋转的第一角度240以及反映在Z平面内的旋转的第二角度242,可以指定模型102内的任何可能的定向视图。如此,用户的视角可以由起始点230结合XY角度244和Z轴角度246进行定义。虽然这提供了可以如何在三维模型内定义用户的视角的一个示例,但应当理解,存在许多其他可能的方法来精确地描述用户的视角。
交互医学可视化***可以为“分布式的”,因为它们可以物理地分布在多个单个机器或工作站上。单个机器或工作站可以位于相同的物理位置或区域,或者可以位于单独的物理位置。现在参考图3,示出了根据本文各个实施例的分布式交互医学可视化***300的示意图。在该示例中,可视化***300包括处于第一位置302(位置A)、第二位置304(位置B)以及第三位置306(位置C)的用户。在一些实施例中,不同的物理位置可能仅仅是诸如医院或大学等同一设施中的不同房间。在其他实施例中,不同的物理位置相互之间可以相距数英里。位置(302、304和306)可以经由存在于不同物理位置之间的网络连接308来互连。在此视图中,第一位置302包括主用户310(或主用户或领导者)和两个跟随者312(或次用户)。其他位置只包括跟随者。然而,应当理解,在一些情况下,主用户310可以单独在物理位置上。在仍其他情况下,所有用户可以在相同的物理位置。在一些场景中,可以存在多于一个主用户。
本文的交互医学可视化***的架构可以变化。在一些实施例中,该***可以存在于对等类型模型中而无中心节点或控制机器。在其他实施例中,该***可以包括诸如解剖模型服务器等中心节点,该解剖模型服务器计算关于三维模型以及当前在模型中的各种用户的方面,并且然后将此信息发送到单个机器或工作站以进行渲染。在仍其他实施例中,视频渲染可以几乎完全在中心节点或服务器(或服务器集群)上发生,并且视频图像可以然后被推送到单个工作站,该单个工作站显示所接收的视频信号(经编码的或未编码的)并且接收并传输用户输入。
现在参考图4,示出了根据本文各个实施例的分布式交互医学可视化***400的示意图。***400包括位于位置A处的与位于位置Z处的解剖模型服务器402进行双向通信的主用户404(或领导者或主)。位置Z可以与位置A相同或不同。***400还包括位于位置A处的跟随者406、位于位置B处的跟随者408以及位于位置C处的跟随者410。在一些实施例中,大量视频处理(包括但不限于图像或视频渲染)发生在解剖模型服务器402上,并且视频流然后分布到各个用户节点。在其他实施例中,解剖模型服务器402主要仅用于协调用户之间的交互,并且大多数视频处理发生在***的各个节点(由各个用户操作的机器)的级别处。
每个单个机器或***可以提供或显示用于个体与之交互的用户界面。用户界面可以由视频处理电路(以下更详细地讨论)生成。视频处理电路可以在用户的机器的本地,或者可以位于中心节点或服务器处。用户界面可以包括各种特征。以举例的方式,用户界面可以包括来自特定视角的受检者的解剖结构的至少一部分的三维模型的表示。在一些情况下,视角可以被配置为由***用户(主的或次的)通过用户界面来控制。
用户界面可以包括各种命令界面对象。命令界面对象可以包括用户可以与之直接(诸如利用触摸屏)或间接(诸如利用键盘、鼠标、笔等真实或虚拟工具)交互的各种元件。命令界面对象可以包括但不限于按钮、菜单树、滑动条、拨盘等。用户对命令界面对象进行接合或致动可以导致各种动作或功能被执行,如下文更详细地描述。
现在参考图5,示出了根据本文实施例的示例性用户界面500的示意图。用户界面500包括三维解剖模型102。解剖模型102包括患者的解剖结构的至少一部分的三维图像504。用户界面可以示出图标或其他图形对象520,该图标或图形对象指示与相同的三维解剖模型102交互的另一个用户的位置和/或视图。
用户界面500还可以包括菜单栏506,该菜单栏可以包括诸如菜单树等命令界面对象。用户界面500还可以包括诸如按钮512等一个或多个命令界面对象。在一些实施例中,用户界面500还可以包括信息侧边栏510。信息侧边栏510可以被选择性地显示或隐藏,并且可以显示诸如与用户界面交互的用户的当前位置和当前视图等信息或者用于另一个所选择用户的信息。例如,如果显示用户界面500的***的用户点击了指示另一个用户的图形对象520,那么可以在侧边栏510中显示此用户的信息。在一些实施例中,代替侧边栏,相同类型的信息可以被显示在附接到屏幕底部或顶部的栏上。在仍其他实施例中,相同类型的信息可以被渲染在三维模型自身内。
三维解剖模型可以包括渲染在模型或用户界面的部分内的各种其他类型的图形元素。以举例的方式,三维模型可以包括一个或多个其他用户的图形表示以及他们的对应位置和当前视图。此外,诸如医疗设备等对象可以在三维模型中叠加和/或渲染。
现在参考图6,示出了根据本文各个实施例的三维解剖模型的示意图。三维解剖模型可以包括患者的解剖结构602的至少一部分的视觉表示。三维解剖模型可以包括医疗设备604的视觉表示。在这种情况下,医疗设备604为心脏瓣膜。然而应当理解,医疗设备可以是任何种类的医疗设备,包括但不限于支架、植入式心率管理设备、导管、栓塞保护设备等。用户可以操纵医疗设备,包括移动、旋转和/或部署医疗设备。在此视图中,第一用户的视角608与第二用户的视角606一起示出。
如上所述,三维模型可以包括患者的解剖结构的至少一部分的视图。此外,三维模型可包括其他方面,这些方面包括医疗设备的表示、其他用户的指示以及叠加到模型中的一般信息。解剖可视化可以包括来自各种源的数据的部分。以举例的方式,解剖可视化可以包括实时从患者获取的实况可视化数据、先前从患者记录且存储的可视化数据、以及从一般医学知识和/或从患者群体中提取的理想化解剖模型数据。在一些情况下,***可以将来自这些源中的一个或多个源的数据的部分混合,以便创建在本文各个实施例中使用的三维解剖模型。
现在参考图7,示出了指示用于生成三维解剖模型102的数据源的示意图。数据源可以包括实时采集的患者数据702、先前存储的患者数据704(诸如存储在文件、文件夹和/或数据库中的数据)以及理想化模型数据706。实时采集的患者数据可以包括诸如医学成像数据等数据,该医学成像数据包括但不限于x射线照相术数据、荧光镜透视检查数据、计算机化轴向断层扫描(CAT)数据、磁共振成像(MRI)数据、相机数据等。先前存储的患者数据可以包括诸如医学成像数据等数据,该医学成像数据包括但不限于x射线照相术数据、荧光镜透视检查数据、计算机化轴向断层扫描(CAT)数据、磁共振成像(MRI)数据、相机数据等。理想化模型数据可以包括解剖结构的理想化模型,包括但不限于主要器官(心脏、肺、肝脏、肾脏、大脑等)、关节、骨骼结构、肌肉组织、胸腔、脉管***、中心和外周静脉***、心肺***、淋巴***、肝***、肾***、头脑并且具体地大脑、鼻窦等,和/或在医疗手术中使用的医疗设备,包括但不限于植入物、心脏瓣膜、栓塞保护设备、支架、移植物、医疗器械、心律管理设备、起搏器、植入式心律转复除颤器、心脏再同步化治疗设备、心室辅助设备等。理想化模型数据可以以包括关于几何形状(线框、表面、实体等)的信息的CAD文件格式来存储,或者可以以包括关于理想化模型的类似信息的其他文件格式来存储。
如上所述,用于在三个维度显示视觉信息的***通常基于用于向用户的一只眼睛提供第一图像并向用户的另一只眼睛提供不同于第一图像的第二图像的机制。以此方式,由用户感知的图像可以看起来具有深度并且因此看起来是三维的。在一些情况下,可以通过单独的视频屏幕或单个视频屏幕的单独部分向用户的每只眼睛提供单独的视频图像。在其他情况下,单独的视频屏幕可以设置在头戴式耳机或眼镜内。
然而,在一些情况下,单个视频屏幕可以与技术结合使用以允许每只眼睛看到屏幕的不同方面,诸如利用偏振眼镜。在一些实施例中,可以将包括左图像以及在立体图像内空间复用的右图像的立体图像通过左偏振滤波器和右偏振滤波器分别呈现给用户的左眼和右眼。这种类型的示例性方法在US 2007/0043466中有描述,该申请的内容以引用方式并入本文。
应当理解,本文的***可以具有各种形式因素,以便提供包括患者的解剖结构的三维模型的视图的用户界面。以举例的方式,该***可以包括具有一个或多个屏幕以向左眼和右眼显示单独图像的头戴式耳机、具有复用的左图像和右图像的屏幕、以及使得左眼看到左图像且右眼看到右图像的眼镜或者类似的***。在一些实施例中,该***可以包括传感器以便跟踪用户头部位置。在US 2013/0128011中描述了用于跟踪用户头部位置的一种方式,该申请的内容以引用方式并入本文。
在一些实施例中,该***可以被配置为允许领导者(或主用户)可以在他们自己的视角与特定次用户的镜像视角之间切换。例如,在教师或专家向他人展示信息的情况下,教师或专家捕捉到特定学生或其他参与者的当前视图可以是有用的。通过这样做,教师或专家可以立即准确地观察到学生或其他参与者当前正在查看什么内容以及从什么距离、角度等进行查看。这对于衡量(或跟踪和评估)学生或其他参与者的理解可能是有用的。如果学生或其他参与者提出了问题,这也可以是有用的,这使得教师或专家可以更充分地理解正在问的问题以及问题的原因。这可以以各种方式实施。在一些实施例中,标识其他用户(诸如次用户)的当前视角的信息在查看相同三维模型的个体的网络中广播。例如,查看相同三维模型的个体可以通过数据网络(分组交换或替代的方法)进行数据通信。信息可以通过通信电路广播。该信息可以包括坐标、观察角度、旋转程度、深度等。教师或专家可以选择特定的用户并且输入命令(诸如通过致动命令界面对象),该命令使得教师或专家自己的机器或视频渲染***改变它们的当前显示的对三维模型的视角,以匹配所选用户的视角。
在实施例中,包括了分布式交互医学可视化***,该***具有第一视频处理电路、与第一视频处理电路通信的第一中央处理电路、以及与第一中央处理电路通信的第一通信电路。该***还可以包括由第一视频处理电路生成的主用户界面,该主用户界面可以包括来自第一视角的受检者的解剖结构的至少一部分的三维模型。第一视角可以被配置为由主用户控制。
主用户界面还可以包括命令界面对象,其中,命令界面对象的接合使得主用户的界面开始在受检者的解剖结构的三维模型上镜像主用户的视角。在一些实施例中,命令界面对象的接合还可以导致主用户的界面开始控制次用户对受检者的解剖结构的三维模型的视角。
在一些实施例中,(多个)命令界面对象可以是图形按钮,诸如,如图5中所示的按钮512。在其他实施例中,命令界面对象可以采用其他形式,诸如右击上下文菜单项、菜单树命令、键盘命令、下拉菜单项或用户界面对象的另一种类型。
在一些实施例中,领导者可以使得一个或多个特定次用户的视图在次用户的当前透视图与领导者的当前透视图的镜像视图之间切换。例如,在教师或专家向他人展示信息的情况下,教师使得一名或多名学生或其他参与者同时查看教师当前正在查看的内容可以是有用的。通过这样做,教师或专家可以与***进行交互,以便示出对观点的提出具有重要意义的受检者的解剖结构的三维模型的方面或视角,并且然后使相同的方面或视角被镜像到一个或多个学生或其他参与者的视图中。
在实施例中,包括了分布式交互医学可视化***,该***具有第一视频处理电路、与第一视频处理电路通信的第一中央处理电路、以及与第一中央处理电路通信的第一通信电路。该***还可以包括由第一视频处理电路生成的主用户界面,该主用户界面包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。
主用户界面还可以包括命令界面对象,其中,命令界面对象的接合使得次用户界面开始在受检者的解剖结构的三维模型上镜像主用户的视角。
这种功能可以以各种方式实施。在一些实施例中,标识领导者或主用户的当前视角的信息可以在查看相同三维模型的个体的网络中广播。该信息可以包括坐标、观察角度、旋转程度、深度等。信息可以连续地、周期性地、按需地广播或以其他方式广播。领导者或主用户可以选择一个或多个用户并输入命令(诸如通过致动命令界面对象),该命令使得那些所选用户的机器或视频渲染***改变它们的当前显示的对三维模型的视角,以匹配领导者或主用户的视角。
在一些实施例中,(多个)命令界面对象可以是图形按钮,诸如,如图5中所示的按钮512。在其他实施例中,命令界面对象可以采用其他形式,诸如右击上下文菜单项、菜单树命令、键盘命令、下拉菜单项或用户界面对象的另一种类型。
在一些实施例中,主用户或领导者可以将对会话的控制委托给次用户或跟随者。示例包括领导者希望特定的跟随者为整个组遍历一场景的情况。
在实施例中,包括了分布式交互医学可视化***,该***具有第一视频处理电路、与第一视频处理电路通信的第一中央处理电路、以及与第一中央处理电路通信的第一通信电路。该***还可以包括由第一视频处理电路生成的主用户界面,该主用户界面包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。
主用户界面还可以包括命令界面对象,其中,命令界面对象的接合允许主用户从从一组次用户中选择一个次用户,其中,所选的次用户获得引导在由主用户和/或一个或多个其他次用户查看的三维模型上的视角的能力。
这种功能可以以各种方式实施。在一些实施例中,标识一个或多个次用户的当前视角的信息可以在查看相同三维模型的个体的网络中广播。该信息可以包括坐标、观察角度、旋转程度、深度等。信息可以连续地、周期性地、按需地广播或以其他方式广播。领导者或主用户可以选择另一个用户并输入命令(诸如通过致动命令界面对象),该命令使得其他用户的机器或视频渲染***改变它们的当前显示的对三维模型的视角,以匹配所选用户的视角。
在实施例中,包括了用于为多个用户显示三维模型的方法。该方法可以包括利用第一视频处理电路生成第一用户界面,第一用户界面包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,第一视角被配置为由主用户控制。该方法可以进一步包括显示一个或多个命令界面对象,其中,命令界面对象的接合允许主用户从一组次用户中选择一个次用户,其中,所选的次用户引导在由主用户和/或一个或多个其他次用户查看的三维模型上的视角的能力。
在一些实施例中,领导者可以查看一个或多个次用户的当前位置和/或视角,而无需一个或多个次用户能够分别看到彼此的位置。例如,在一些场景中,可以期望主用户或领导者能够查看所有次用户或其他用户的当前位置和/或视角,但不使次用户看见彼此的位置。例如,如果主用户想要测试次用户的理解,他们可以引导次用户找到特定的解剖参考点和/或对该解剖参考点的视角。然后将期望能够看到次用户是否然后能够成功地执行请求。
在实施例中,包括了分布式交互医学可视化***,该***具有第一视频处理电路、与第一视频处理电路通信的第一中央处理电路、以及与第一中央处理电路通信的第一通信电路。该***还可以包括由第一视频处理电路生成的主用户界面,该主用户界面包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。
主用户界面还可以包括正在查看相同的三维或更多维图形表示的一个或多个次用户的一个或多个图形用户表示,其中,该一个或多个图形用户表示中的每一个对该一个或多个次用户是不可见的。包括例如坐标、观察角度、旋转程度、深度等关于用户的当前视角的信息可以连续地、周期性地、按需地广播或以其他方式广播。该信息可以被主用户的渲染***用来以图形方式、文本方式、或图形方式与文本方式的组合来显示关于其他用户的视角的信息。
主用户界面还可以包括命令界面对象,其中,命令界面对象的接合使得一个或多个次用户的图形用户表示出现、消失、或以其他方式改变。
在实施例中,包括了用于为多个用户显示三维模型的方法。该方法可以包括利用第一视频处理电路生成第一用户界面,第一用户界面包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,第一视角被配置为由主用户控制。该方法可以进一步包括显示正在查看相同的三维或更多维图形表示的一个或多个次用户的一个或多个图形用户表示,其中,该一个或多个图形用户表示中的每一个对个一个或多个次用户是不可见的。该方法可以包括广播(连续地、周期性地、按需地等)关于用户的当前视角的信息,该信息包括例如坐标、观察角度、旋转程度、深度等。该信息可以被主用户的渲染***用来以图形方式、文本方式、或图形方式与文本方式的组合来显示关于其他用户的视角的信息。
在一些实施例中,领导者或主用户可将次用户或其他用户分组,并且然后以组级而不是以单独方式来控制关于其他用户的界面的方面。
在实施例中,包括了分布式交互医学可视化***,该***具有第一视频处理电路、与第一视频处理电路通信的第一中央处理电路、以及与第一中央处理电路通信的第一通信电路。该***还可以包括由该第一视频处理电路生成的主用户界面。该***还可以包括由一个或多个次视频处理电路生成的一个或多个次用户界面,这些次用户界面中的每一个包括来自第一视角的受检者的解剖结构的至少一部分的三维模型。该***还可以包括由一个或多个次视频处理电路生成的一个或多个次用户界面,这些次用户界面中的每一个包括来自第一视角的受检者的解剖结构的至少一部分的三维模型。
在一些实施例中,主用户界面可以包括命令功能对象,其中,一个或多个次用户的选择以及命令功能对象的接合使得将形成用户组。在一些实施例中,在命令功能对象的接合之前,可以进行一个或多个次用户的选择。在一些实施例中,在命令功能对象的接合之后,可以进行一个或多个次用户的选择。
在一些实施例中,在创建一组次用户之后,主用户界面可以允许主用户以组级提供界面设置。
在一些实施例中,该***可以包括消息传送元件以将消息从主用户或领导者提供到一个或多个次用户或跟随者。可以通过次用户或跟随者的用户界面可视化地提供此类消息。
在实施例中,包括了分布式交互医学可视化***,该***具有第一视频处理电路、与第一视频处理电路通信的第一中央处理电路、以及与第一中央处理电路通信的第一通信电路。该***还可以包括由第一视频处理电路生成的主用户界面,该主用户界面包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,该第一视角被配置为由主用户控制。
主用户界面还可以包括命令界面对象,其中,命令界面对象的接合允许主用户创建用于一个或多个次用户的通信。命令界面对象的接合可以然后使得该通信在一个或多个次用户界面上广播并显示。
在实施例中,包括了用于为多个用户显示三维模型的方法。该方法可以包括利用第一视频处理电路生成第一用户界面,第一用户界面包括来自第一视角的受检者的解剖结构的至少一部分的三维模型,第一视角被配置为由主用户控制。该方法可以进一步包括显示一个或多个命令界面对象,其中,命令界面对象的接合允许主用户创建用于一个或多个次用户的通信。命令界面对象的接合可以然后使得该通信在一个或多个次用户界面上广播并显示。
应当理解,除非另外指明,本文方法中包括的操作不限于事件的特定进展。允许实现本文讨论的技术的任何进展都是适当的。
在一些实施例中,本发明包括:设备,该设备包括图形显示器;以及机器可读介质,该机器可读介质包括指令。当由一个或多个处理器实施时,指令可以执行各种操作。以举例的方式,操作可以包括根据如本文所描述的方法中的操作。机器可读介质可以包括随机存取存储器(RAM)、只读存储器(ROM)、磁性数据存储介质、光学数据存储介质、闪存存储器等。
用于显示受检者的解剖结构的至少一部分的三维模型和/或针对该三维模型的用户界面的设备可以包括许多计算设备通用的部件。现在参考图8,示出了根据一些实施例的各种部件的简图。该***可以包括中央处理电路,该中央处理电路可以包括诸如中央处理单元等各种部件。以举例的方式,该***可以包括中央处理单元(CPU)805或处理器,该中央处理单元或处理器可以包括常规微处理器、用于信息临时存储的随机存取存储器(RAM)810、以及用于信息永久存储的只读存储器(ROM)815。提供了用于控制***RAM 810的存储器控制器820。提供了用于控制数据总线830的总线控制器825,并且中断控制器835用于从其他***部件接收各种中断信号并对这些信号进行处理。
海量存储装置可以由磁性或闪存存储器驱动器841提供,包括通过控制器840连接到总线830的可移除或不可移除介质、通过控制器845连接到总线830的光学驱动器(诸如CD-ROM或DVD驱动器846)、和/或通过控制器850连接到总线830的硬盘驱动器851(磁性的或固态的)。在一些实施例中,海量存储装置可以由通过通用串行总线(USB)、eSATA、火线、或Thunderbolt接口或其他类型的连接进行连接的设备来提供。到编程器***的用户输入可以由多个设备提供。例如,键盘和鼠标可以通过键盘和鼠标控制器855连接到总线830。提供DMA控制器860用于执行对***RAM 810的直接存储器访问。在一些实施例中,用户输入可以由笔、光笔、手套、可穿戴对象、手势控制界面等提供。
可以包括视频处理电路,并且视频处理电路可以生成用户界面。视频处理电路可以包括控制视频显示器870的视频控制器865或视频输出端。在一些实施例中,视频控制器865还可以包括一个或多个图形处理单元(GPU)。视频处理电路可以与中央处理电路通信。
***还可以包括允许***与其他***和/或服务器接口连接和交换数据的通信接口890或通信电路。通信电路可以与中央处理电路通信。在一些实施例中,通信接口890可以包括网络接口卡或电路以促进与分组交换(诸如IP)或其他类型的数据网络的通信。
应当理解,一些实施例可以不含图8中所展示的各种元件。此外,图8中所示的架构仅仅是分立部件可如何布置的一个示例,并且本文明确地设想了其他构架。
除了或代替关于图8描述的部件,应当理解,***还可以包括微控制器、可编程逻辑控制器(PLC)、ASIC、FPGA、微处理器或其他适合的技术。
视频处理电路(在本地或在远程节点上)可以基于包括几何形状、视点、纹理、光照和阴影信息、以及上述其他信息中的一个或多个的信息来生成3D(或更少或更多维度)图像。在一些实施例中,用于渲染图像的信息被组合在场景文件中。术语“图形流水线”可以用于指用于创建3D场景的2D光栅表示的步骤序列。视频处理电路可以执行图形流水线的一个或多个步骤。视频处理电路还可以包括在图形流水线中使用的一个或多个物理部件。通过使用上述信息,图形流水线可以包括由几何图元创建场景、建模和转换、相机转换、照明、投影转换、剪辑、扫描转化或光栅化、以及纹理和片段着色中的一个或多个阶段。在各个实施例中,还可以执行其他操作。在各种实施例中,图形流水线可以使用OpenGL、DirectX或其他协议。
应当理解,可以使用图形流水线的各种形式。仅作为一个示例,图9中示出了示例性计算机图形流水线900。在该示例中,主机计算***或中央处理电路910(其可以是本地的或在远程节点上)运行能够根据多边形顶点、颜色、光照、纹理等对场景进行建模的***和应用软件。中央处理电路910将此信息发送到图形加速***912(其可以是本地的或在远程节点上)。图形加速***912可以通过生成像素数据以存储在帧缓冲器存储器中来渲染建模的场景。在帧缓冲器存储器中的内容可以由随机存取存储器/数模转换器(“RAMDAC”)模块922连续地读取,该RAMDAC模块通常包含颜色或伽玛校正查找表并且驱动显示监视器924。可替代地,中央处理电路910可以在没有图形加速***的情况下生成像素数据,并且将像素数据直接写入到帧缓冲器中。
在一些情况下,可以使用已知为双缓冲的技术。在双缓冲中,提供了两个帧缓冲器916和918,而不是提供单个帧缓冲器。这样,中央处理电路910或图形加速***912可以将像素数据写入到一个帧缓冲器(“不可查看的”或“后面的”缓冲器)中,同时RAMDAC模块922和监视器924显示先前写入到另一个帧缓冲器(“可查看的”或“前面的”缓冲器)中的像素数据。这种技术的效果是在帧缓冲器的内容发生变化同时该帧缓冲器的内容正被显示时,减少引入到图像中的撕裂和其他不想要的视觉伪影。在使用两个缓冲器的***中,帧缓冲器控制器914可以用于协调在任何给定时刻哪个缓冲器是可视的以及哪个缓冲器是不可视的。具体地,帧缓冲器控制器914内的交换控制器920可以指示何时停止显示一个帧缓冲器的内容并且开始显示另一个帧缓冲器的内容是安全的。通常地,交换控制器920将在以下时刻指示交换帧缓冲器是安全的:(1)当图形流水线已经完成将像素数据渲染到不可视缓冲器中时,以及(2)当显示器的当前光栅位置不在感兴趣的窗口内时。在全屏图形中,缓冲器交换通常仅发生在垂直回扫期间,但缓冲器交换可以在不同时间执行。在窗口化图形中,当光栅不在感兴趣的窗口内时,缓冲器交换可能在任何时候发生。
应当注意的是,如在本说明书和所附权利要求中所使用的,单数形式“一个/种(a/an)”和“该/这些(the)”包括复数的指代物,除非上下文另外明确指示。因此,例如,对含有“一种化合物”的组合物的引用包括两种或更多种化合物的混合物。还应当注意的是,术语“或”通常以其包括“和/或”的意义来使用,除非上下文另外明确指示。
还应当注意的是,如在本说明书和所附权利要求中所使用的,短语“被配置”描述被构造或被配置用于执行特定任务或采用特定配置的***、装置或其他结构。短语“被配置”可以与其他类似短语(诸如被安排并配置、被构造并安排、被构造、被制造和安排等)可互换地使用。
本说明书中所有的出版物和专利申请指示本发明所属领域中普通技术人员的水平。所有出版物和专利申请通过引用结合在本文中,其程度如同具体且单独地通过引用指示每个单独的出版物或专利申请。
已经参考各种特定和优选的实施例和技术描述了多个方面。然而,应当理解的是,在保持处于本文的精神和范围内的同时,仍可做出许多变化和修改。
Claims (21)
1.一种分布式交互医学可视化***,包括:
第一视频处理电路;
与所述第一视频处理电路通信的第一中央处理电路;
与所述第一中央处理电路通信的第一通信电路;
由所述第一视频处理电路生成的主用户界面,所述主用户界面包括:
来自第一视角的受检者的解剖结构的至少一部分的三维模型,所述第一视角被配置为由主用户控制,和
允许所述主用户与所述三维模型交互的用户输入;
配置为由次用户控制的次用户界面,所述次用户界面从第二视角显示所述三维模型,所述次用户界面包括允许所述次用户与所述三维模型交互的用户输入;
显示在所述主用户界面上的命令界面对象,其中,由所述主用户经由所述主用户界面的所述用户输入对所述命令界面对象的接合使得所述次用户界面开始在所述次用户界面上的所述受检者的解剖结构的所述三维模型上镜像所述主用户的所述第一视角。
2.如权利要求1所述的分布式交互医学可视化***,所述三维模型包括实时采集的患者数据、先前存储的患者数据以及理想化模型数据中的一者或多者。
3.如权利要求1所述的分布式交互医学可视化***,其中,关于所述主用户的当前视角的信息通过网络来广播。
4.如权利要求1所述的分布式交互医学可视化***,其中,关于所述次用户的当前视角的信息通过网络来广播。
5.如权利要求1至4中任一项所述的分布式交互医学可视化***,其中,所述第一视频处理电路与显示所述主用户界面的机器协同定位。
6.如权利要求1至4中任一项所述的分布式交互医学可视化***,其中,所述第一视频处理电路被定位成远离显示所述主用户界面的机器。
7.一种分布式交互医学可视化***,包括:
第一视频处理电路;
与所述第一视频处理电路通信的第一中央处理电路;
与所述第一中央处理电路通信的第一通信电路;
由所述第一视频处理电路生成的主用户界面,所述主用户界面包括:
来自第一视角的受检者的解剖结构的至少一部分的三维模型,所述第一视角被配置为由主用户控制,和
允许所述主用户与所述三维模型交互的用户输入;
从第二视角显示所述三维模型的次用户界面,其中次用户可以改变所述受检者的解剖结构的所述三维模型的所述第二视角,所述次用户界面包括使所述次用户能够与所述三维模型交互的用户输入;
在所述主用户界面上的命令界面对象,其中,由所述主用户经由所述主用户界面的所述用户输入对所述命令界面对象的接合使得所述主用户界面以镜像方式显示来自所述第二视角的所述受检者的解剖结构的所述三维模型。
8.如权利要求7所述的分布式交互医学可视化***,所述三维模型包括实时采集的患者数据、先前存储的患者数据以及理想化模型数据中的一者或多者。
9.如权利要求7所述的分布式交互医学可视化***,其中,关于所述主用户的当前视角的信息通过网络来广播。
10.如权利要求7至9中任一项所述的分布式交互医学可视化***,其中,关于所述次用户的当前视角的信息通过网络来广播。
11.如权利要求7至9中任一项所述的分布式交互医学可视化***,其中所述第一视频处理电路与显示所述主用户界面的机器协同定位。
12.如权利要求7至9中任一项所述的分布式交互医学可视化***,其中所述第一视频处理电路的位置远离显示所述主用户界面的机器。
13.一种分布式交互医学可视化***,包括:
第一视频处理电路;
与所述第一视频处理电路通信的第一中央处理电路;
与所述第一中央处理电路通信的第一通信电路;
由所述第一视频处理电路生成的主用户界面,所述主用户界面包括:
来自第一视角的受检者的解剖结构的至少一部分的三维或更多维图形表示,所述第一视角被配置为由主用户控制,和
允许所述主用户与所述三维或更多维图形表示交互的用户输入;
多个次用户界面,每个所述次用户界面都包括允许次用户与所述三维或更多维图形表示交互的用户输入,每个所述次用户界面显示所述三维或更多维图形表示,其中每个所述次用户界面的次用户可以通过所述次用户输入改变所述受检者的解剖结构的所述三维或更多维图形表示的视角;
显示在所述主用户界面上的多个图形用户表示,每一个所述图形用户表示表示与次用户界面上相同的三维或更多维图形表示进行交互的次用户的视角位置和当前视图,其中,所述多个图形用户表示中的每一个在所述次用户界面上是不可见的。
14.如权利要求13所述的分布式交互医学可视化***,其中所述第一视频处理电路的位置远离显示所述主用户界面的机器。
15.如权利要求13所述的分布式交互医学可视化***,其中所述三维或更多维图形表示包括实时收集的一个或多个患者数据、先前存储的患者数据和理想化模型数据。
16.如权利要求13所述的分布式交互医学可视化***,其中关于所述主用户的当前视角的信息通过网络广播。
17.如权利要求13所述的分布式交互医学可视化***,其中关于所述次用户的当前视角的信息通过网络广播。
18.如权利要求13所述的分布式交互医学可视化***,所述主用户界面包括命令功能对象,其中一个或多个次用户的选择和所述命令功能对象的接合导致形成用户组;所述主用户界面允许所述主用户在以组级来指定界面设置。
19.如权利要求13所述的分布式交互医学可视化***,所述主用户界面包括命令界面对象,其中所述命令界面对象的接合允许所述主用户从一组次用户中选择一个,其中所选择的次用户获得引导所述主用户和其他次用户查看所述三维或更多维图形表示的视角的能力。
20.如权利要求13所述的分布式交互医学可视化***,所述主用户界面包括命令界面对象,其中所述命令界面对象的接合允许所述主用户为一个或多个次用户创建通信以显示在一个或多个次用户界面上。
21.如权利要求13所述的分布式交互医学可视化***,受检者的解剖结构的至少一部分的三维或更多维图形表示包括实时收集的一个或多个患者数据、先前存储的患者数据和理想化模型数据。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662374319P | 2016-08-12 | 2016-08-12 | |
US62/374,319 | 2016-08-12 | ||
PCT/US2017/045925 WO2018031558A1 (en) | 2016-08-12 | 2017-08-08 | Distributed interactive medical visualization system with primary/secondary interaction features |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109564471A CN109564471A (zh) | 2019-04-02 |
CN109564471B true CN109564471B (zh) | 2022-08-23 |
Family
ID=59700185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780048904.3A Active CN109564471B (zh) | 2016-08-12 | 2017-08-08 | 具有主/次交互特征的分布式交互医学可视化*** |
Country Status (5)
Country | Link |
---|---|
US (1) | US10592067B2 (zh) |
EP (1) | EP3497544B1 (zh) |
JP (1) | JP2019534490A (zh) |
CN (1) | CN109564471B (zh) |
WO (1) | WO2018031558A1 (zh) |
Families Citing this family (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11871901B2 (en) | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US11504192B2 (en) | 2014-10-30 | 2022-11-22 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
JP6921940B2 (ja) | 2016-08-12 | 2021-08-18 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム |
CN109564471B (zh) | 2016-08-12 | 2022-08-23 | 波士顿科学国际有限公司 | 具有主/次交互特征的分布式交互医学可视化*** |
US11510741B2 (en) | 2017-10-30 | 2022-11-29 | Cilag Gmbh International | Method for producing a surgical instrument comprising a smart electrical system |
US11291510B2 (en) | 2017-10-30 | 2022-04-05 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11564756B2 (en) | 2017-10-30 | 2023-01-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11911045B2 (en) | 2017-10-30 | 2024-02-27 | Cllag GmbH International | Method for operating a powered articulating multi-clip applier |
US11317919B2 (en) | 2017-10-30 | 2022-05-03 | Cilag Gmbh International | Clip applier comprising a clip crimping system |
US11229436B2 (en) | 2017-10-30 | 2022-01-25 | Cilag Gmbh International | Surgical system comprising a surgical tool and a surgical hub |
US11413042B2 (en) | 2017-10-30 | 2022-08-16 | Cilag Gmbh International | Clip applier comprising a reciprocating clip advancing member |
US11801098B2 (en) | 2017-10-30 | 2023-10-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11311342B2 (en) | 2017-10-30 | 2022-04-26 | Cilag Gmbh International | Method for communicating with surgical instrument systems |
US11819231B2 (en) | 2017-10-30 | 2023-11-21 | Cilag Gmbh International | Adaptive control programs for a surgical system comprising more than one type of cartridge |
US11364075B2 (en) | 2017-12-28 | 2022-06-21 | Cilag Gmbh International | Radio frequency energy device for delivering combined electrical signals |
US11304763B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use |
US11419667B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location |
US11424027B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Method for operating surgical instrument systems |
US11446052B2 (en) | 2017-12-28 | 2022-09-20 | Cilag Gmbh International | Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue |
US11832899B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical systems with autonomously adjustable control programs |
US11666331B2 (en) | 2017-12-28 | 2023-06-06 | Cilag Gmbh International | Systems for detecting proximity of surgical end effector to cancerous tissue |
US11857152B2 (en) | 2017-12-28 | 2024-01-02 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11969142B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws |
US11234756B2 (en) | 2017-12-28 | 2022-02-01 | Cilag Gmbh International | Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter |
US11166772B2 (en) | 2017-12-28 | 2021-11-09 | Cilag Gmbh International | Surgical hub coordination of control and communication of operating room devices |
US11903601B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Surgical instrument comprising a plurality of drive systems |
US11324557B2 (en) | 2017-12-28 | 2022-05-10 | Cilag Gmbh International | Surgical instrument with a sensing array |
US11559307B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method of robotic hub communication, detection, and control |
US20190201113A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Controls for robot-assisted surgical platforms |
US11278281B2 (en) | 2017-12-28 | 2022-03-22 | Cilag Gmbh International | Interactive surgical system |
US11559308B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method for smart energy device infrastructure |
US10892995B2 (en) | 2017-12-28 | 2021-01-12 | Ethicon Llc | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11058498B2 (en) | 2017-12-28 | 2021-07-13 | Cilag Gmbh International | Cooperative surgical actions for robot-assisted surgical platforms |
US11147607B2 (en) | 2017-12-28 | 2021-10-19 | Cilag Gmbh International | Bipolar combination device that automatically adjusts pressure based on energy modality |
US11672605B2 (en) | 2017-12-28 | 2023-06-13 | Cilag Gmbh International | Sterile field interactive control displays |
US20190201039A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Situational awareness of electrosurgical systems |
US10595887B2 (en) | 2017-12-28 | 2020-03-24 | Ethicon Llc | Systems for adjusting end effector parameters based on perioperative information |
US11266468B2 (en) | 2017-12-28 | 2022-03-08 | Cilag Gmbh International | Cooperative utilization of data derived from secondary sources by intelligent surgical hubs |
US11317937B2 (en) | 2018-03-08 | 2022-05-03 | Cilag Gmbh International | Determining the state of an ultrasonic end effector |
US11464535B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Detection of end effector emersion in liquid |
US11832840B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical instrument having a flexible circuit |
US11998193B2 (en) | 2017-12-28 | 2024-06-04 | Cilag Gmbh International | Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation |
US11132462B2 (en) | 2017-12-28 | 2021-09-28 | Cilag Gmbh International | Data stripping method to interrogate patient records and create anonymized record |
US11056244B2 (en) * | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks |
US11659023B2 (en) | 2017-12-28 | 2023-05-23 | Cilag Gmbh International | Method of hub communication |
US11937769B2 (en) | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US11284936B2 (en) | 2017-12-28 | 2022-03-29 | Cilag Gmbh International | Surgical instrument having a flexible electrode |
US11202570B2 (en) | 2017-12-28 | 2021-12-21 | Cilag Gmbh International | Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems |
US11109866B2 (en) | 2017-12-28 | 2021-09-07 | Cilag Gmbh International | Method for circular stapler control algorithm adjustment based on situational awareness |
US11529187B2 (en) | 2017-12-28 | 2022-12-20 | Cilag Gmbh International | Surgical evacuation sensor arrangements |
US11786245B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Surgical systems with prioritized data transmission capabilities |
US11410259B2 (en) | 2017-12-28 | 2022-08-09 | Cilag Gmbh International | Adaptive control program updates for surgical devices |
US11419630B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Surgical system distributed processing |
US11273001B2 (en) | 2017-12-28 | 2022-03-15 | Cilag Gmbh International | Surgical hub and modular device response adjustment based on situational awareness |
US11969216B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
US11589888B2 (en) | 2017-12-28 | 2023-02-28 | Cilag Gmbh International | Method for controlling smart energy devices |
US11423007B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Adjustment of device control programs based on stratified contextual data in addition to the data |
US11896322B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub |
US11308075B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity |
US11818052B2 (en) | 2017-12-28 | 2023-11-14 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11389164B2 (en) | 2017-12-28 | 2022-07-19 | Cilag Gmbh International | Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices |
US11602393B2 (en) | 2017-12-28 | 2023-03-14 | Cilag Gmbh International | Surgical evacuation sensing and generator control |
US20190201042A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Determining the state of an ultrasonic electromechanical system according to frequency shift |
US11678881B2 (en) | 2017-12-28 | 2023-06-20 | Cilag Gmbh International | Spatial awareness of surgical hubs in operating rooms |
US11304745B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical evacuation sensing and display |
US11864728B2 (en) | 2017-12-28 | 2024-01-09 | Cilag Gmbh International | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
US11540855B2 (en) | 2017-12-28 | 2023-01-03 | Cilag Gmbh International | Controlling activation of an ultrasonic surgical instrument according to the presence of tissue |
US11160605B2 (en) | 2017-12-28 | 2021-11-02 | Cilag Gmbh International | Surgical evacuation sensing and motor control |
US11304699B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11100631B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Use of laser light and red-green-blue coloration to determine properties of back scattered light |
US11633237B2 (en) | 2017-12-28 | 2023-04-25 | Cilag Gmbh International | Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures |
US11744604B2 (en) | 2017-12-28 | 2023-09-05 | Cilag Gmbh International | Surgical instrument with a hardware-only control circuit |
US11311306B2 (en) | 2017-12-28 | 2022-04-26 | Cilag Gmbh International | Surgical systems for detecting end effector tissue distribution irregularities |
US11291495B2 (en) | 2017-12-28 | 2022-04-05 | Cilag Gmbh International | Interruption of energy due to inadvertent capacitive coupling |
US11896443B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Control of a surgical system through a surgical barrier |
US11253315B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Increasing radio frequency to create pad-less monopolar loop |
US11179208B2 (en) | 2017-12-28 | 2021-11-23 | Cilag Gmbh International | Cloud-based medical analytics for security and authentication trends and reactive measures |
US11786251B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11612444B2 (en) | 2017-12-28 | 2023-03-28 | Cilag Gmbh International | Adjustment of a surgical device function based on situational awareness |
US11096693B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Adjustment of staple height of at least one row of staples based on the sensed tissue thickness or force in closing |
US11464559B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Estimating state of ultrasonic end effector and control system therefor |
US11571234B2 (en) | 2017-12-28 | 2023-02-07 | Cilag Gmbh International | Temperature control of ultrasonic end effector and control system therefor |
US11432885B2 (en) | 2017-12-28 | 2022-09-06 | Cilag Gmbh International | Sensing arrangements for robot-assisted surgical platforms |
US11257589B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes |
US11304720B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Activation of energy devices |
US10758310B2 (en) | 2017-12-28 | 2020-09-01 | Ethicon Llc | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
US11376002B2 (en) | 2017-12-28 | 2022-07-05 | Cilag Gmbh International | Surgical instrument cartridge sensor assemblies |
US11576677B2 (en) | 2017-12-28 | 2023-02-14 | Cilag Gmbh International | Method of hub communication, processing, display, and cloud analytics |
US11986233B2 (en) | 2018-03-08 | 2024-05-21 | Cilag Gmbh International | Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device |
US11707293B2 (en) | 2018-03-08 | 2023-07-25 | Cilag Gmbh International | Ultrasonic sealing algorithm with temperature control |
US11259830B2 (en) | 2018-03-08 | 2022-03-01 | Cilag Gmbh International | Methods for controlling temperature in ultrasonic device |
US11090047B2 (en) | 2018-03-28 | 2021-08-17 | Cilag Gmbh International | Surgical instrument comprising an adaptive control system |
US11219453B2 (en) | 2018-03-28 | 2022-01-11 | Cilag Gmbh International | Surgical stapling devices with cartridge compatible closure and firing lockout arrangements |
US11207067B2 (en) | 2018-03-28 | 2021-12-28 | Cilag Gmbh International | Surgical stapling device with separate rotary driven closure and firing systems and firing member that engages both jaws while firing |
US11259806B2 (en) | 2018-03-28 | 2022-03-01 | Cilag Gmbh International | Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein |
US11471156B2 (en) | 2018-03-28 | 2022-10-18 | Cilag Gmbh International | Surgical stapling devices with improved rotary driven closure systems |
US11406382B2 (en) | 2018-03-28 | 2022-08-09 | Cilag Gmbh International | Staple cartridge comprising a lockout key configured to lift a firing member |
US11278280B2 (en) | 2018-03-28 | 2022-03-22 | Cilag Gmbh International | Surgical instrument comprising a jaw closure lockout |
US11369377B2 (en) | 2019-02-19 | 2022-06-28 | Cilag Gmbh International | Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout |
US11751872B2 (en) | 2019-02-19 | 2023-09-12 | Cilag Gmbh International | Insertable deactivator element for surgical stapler lockouts |
US11317915B2 (en) | 2019-02-19 | 2022-05-03 | Cilag Gmbh International | Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers |
US11331101B2 (en) | 2019-02-19 | 2022-05-17 | Cilag Gmbh International | Deactivator element for defeating surgical stapling device lockouts |
US11357503B2 (en) | 2019-02-19 | 2022-06-14 | Cilag Gmbh International | Staple cartridge retainers with frangible retention features and methods of using same |
USD964564S1 (en) | 2019-06-25 | 2022-09-20 | Cilag Gmbh International | Surgical staple cartridge retainer with a closure system authentication key |
USD950728S1 (en) | 2019-06-25 | 2022-05-03 | Cilag Gmbh International | Surgical staple cartridge |
USD952144S1 (en) | 2019-06-25 | 2022-05-17 | Cilag Gmbh International | Surgical staple cartridge retainer with firing system authentication key |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
CN111597046B (zh) * | 2020-05-15 | 2023-12-22 | 深圳市道通科技股份有限公司 | 一种内窥镜内存管理方法及内窥镜 |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
CN114821826A (zh) * | 2022-02-03 | 2022-07-29 | 北京泽桥医疗科技股份有限公司 | 一种面向交互式三维人体医学模型的可视化*** |
Family Cites Families (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5494042A (en) | 1994-01-28 | 1996-02-27 | Ep Technologies, Inc. | Systems and methods for deriving electrical characteristics of cardiac tissue for output in iso-characteristic displays |
US6608628B1 (en) | 1998-11-06 | 2003-08-19 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) | Method and apparatus for virtual interactive medical imaging by multiple remotely-located users |
JP2001118015A (ja) * | 1999-10-18 | 2001-04-27 | Hitachi Ltd | 3次元画像を用いた遠隔診療支援方法および遠隔診療支援システムと端末 |
US7840393B1 (en) | 2000-10-04 | 2010-11-23 | Trivascular, Inc. | Virtual prototyping and testing for medical device development |
US7538764B2 (en) | 2001-01-05 | 2009-05-26 | Interuniversitair Micro-Elektronica Centrum (Imec) | System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display |
US7327862B2 (en) | 2001-04-30 | 2008-02-05 | Chase Medical, L.P. | System and method for facilitating cardiac intervention |
JP2005518917A (ja) | 2002-03-07 | 2005-06-30 | メドトロニック・インコーポレーテッド | 非直線の埋め込み可能医療デバイスの動的な3次元再構成を行うコンピュータ実施式のソフトウェアシステム |
US20030216710A1 (en) | 2002-03-26 | 2003-11-20 | Hurt Robert F. | Catheter |
US7697972B2 (en) | 2002-11-19 | 2010-04-13 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
CA2471073A1 (en) | 2003-06-17 | 2004-12-17 | Zale Tabakman | System, method and computer for communicating using interactive three-dimensional renderings |
US10258285B2 (en) | 2004-05-28 | 2019-04-16 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic surgical system and method for automated creation of ablation lesions |
JP2008510499A (ja) | 2004-06-23 | 2008-04-10 | エムツーエス・インコーポレーテッド | 解剖学的可視化/測定システム |
US7291166B2 (en) | 2005-05-18 | 2007-11-06 | Advanced Cardiovascular Systems, Inc. | Polymeric stent patterns |
US20070043466A1 (en) | 2005-08-18 | 2007-02-22 | Vesely Michael A | Stereoscopic display using polarized eyewear |
US20070092864A1 (en) | 2005-09-30 | 2007-04-26 | The University Of Iowa Research Foundation | Treatment planning methods, devices and systems |
US20070127791A1 (en) | 2005-11-15 | 2007-06-07 | Sectra Ab | Automated synchronization of 3-D medical images, related methods and computer products |
WO2007108776A2 (en) * | 2005-12-31 | 2007-09-27 | Bracco Imaging S.P.A. | Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet') |
JP2009521985A (ja) * | 2005-12-31 | 2009-06-11 | ブラッコ イメージング エス.ピー.エー. | 3Dデータセットのネットワーク(”DextroNet”)上での、協同的でインタラクティブな可視化のためシステムおよび方法 |
CN101405769A (zh) * | 2005-12-31 | 2009-04-08 | 布拉科成像S.P.A.公司 | 用于经由网络("DextroNet")的三维数据集的协作交互显影的***和方法 |
ITMI20061010A1 (it) | 2006-05-23 | 2007-11-24 | Magaldi Power Spa | Sistema di raffreddamento per estrazione a secco di ceneri pesanti per caldaie durante la fase di accumulo in tramoggia |
US20100106475A1 (en) | 2006-08-04 | 2010-04-29 | Auckland Uniservices Limited | Biophysical virtual model database and applications |
JP5237819B2 (ja) | 2006-10-17 | 2013-07-17 | 章示 山元 | 心機能シミュレーションシステム、心機能シミュレーション方法、心機能シミュレーションプログラムおよび複合材料シート |
US7940974B2 (en) | 2006-11-21 | 2011-05-10 | General Electric Company | Method and system for adjusting 3D CT vessel segmentation |
DE102007028065A1 (de) | 2007-06-19 | 2009-01-02 | Siemens Ag | Vorrichtung und Verfahren zur automatischen Wegplanung |
US8363096B1 (en) | 2007-08-21 | 2013-01-29 | Echopixel Technologies, Inc. | Method and apparatus for displaying stereoscopic 3D images with a liquid crystal panel |
US8131379B2 (en) | 2007-08-27 | 2012-03-06 | St. Jude Medical Atrial Fibrillation Division, Inc. | Cardiac tissue elasticity sensing |
WO2009049681A1 (en) | 2007-10-19 | 2009-04-23 | Vascops | Automatic geometrical and mechanical analyzing method and system for tubular structures |
AU2008351907A1 (en) | 2008-02-25 | 2009-09-03 | Inventive Medical Limited | Medical training method and apparatus |
US8403911B2 (en) | 2008-04-22 | 2013-03-26 | Becton, Dickinson And Company | Systems and methods for improving catheter hole array efficiency |
US8340763B2 (en) | 2008-09-08 | 2012-12-25 | Backbeat Medical, Inc. | Methods and apparatus to stimulate heart atria |
US9547902B2 (en) | 2008-09-18 | 2017-01-17 | Siemens Healthcare Gmbh | Method and system for physiological image registration and fusion |
EP2605824B1 (en) | 2010-08-18 | 2019-07-24 | Boston Scientific Neuromodulation Corporation | User interface for segmented neurostimulation leads |
US9595127B2 (en) * | 2010-12-22 | 2017-03-14 | Zspace, Inc. | Three-dimensional collaboration |
EP2691898A2 (en) | 2011-03-29 | 2014-02-05 | Boston Scientific Neuromodulation Corporation | System and method for atlas registration |
EP2691935A1 (en) * | 2011-03-29 | 2014-02-05 | Qualcomm Incorporated | System for the rendering of shared digital interfaces relative to each user's point of view |
EP2709721B1 (en) | 2011-05-17 | 2016-09-14 | Boston Scientific Neuromodulation Corporation | Display of region of activation in neurostimulation programming screen |
AU2012262462B2 (en) | 2011-05-27 | 2016-12-01 | Boston Scientific Neuromodulation Corporation | Collection of clinical data for graphical representation and analysis |
JP5889559B2 (ja) * | 2011-07-13 | 2016-03-22 | ソニー株式会社 | 情報処理方法および情報処理システム |
CA2844072A1 (en) | 2011-08-09 | 2013-02-14 | Boston Scientific Neuromodulation Corporation | System and method for weighted atlas generation |
WO2013023076A2 (en) | 2011-08-09 | 2013-02-14 | Boston Scientific Neuromodulation Corporation | Control and/or quantification of target stimulation volume overlap and interface therefor |
US8935328B2 (en) * | 2011-09-15 | 2015-01-13 | Ramakrishna J Tumuluri | System and method for collaborative 3D visualization and real-time interaction on a computer network |
US10734116B2 (en) | 2011-10-04 | 2020-08-04 | Quantant Technology, Inc. | Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data |
US9106903B2 (en) | 2011-11-18 | 2015-08-11 | Zspace, Inc. | Head tracking eyewear system |
US9173626B2 (en) | 2012-01-04 | 2015-11-03 | Siemens Aktiengesellschaft | Method for performing dynamic registration, overlays, and 3D views with fluoroscopic images |
KR101899304B1 (ko) * | 2012-01-26 | 2018-09-17 | 삼성전자주식회사 | 실시간 피드백을 활용한 비순차적 스캔 방식의 영상 복원 시스템 및 방법 |
US8900225B2 (en) | 2012-05-07 | 2014-12-02 | Biosense Webster (Israel) Ltd. | Automatic ablation tracking |
WO2014036079A2 (en) | 2012-08-28 | 2014-03-06 | Boston Scientific Neuromodulation Corporation | Parameter visualization, selection, and annotation interface |
US9225969B2 (en) | 2013-02-11 | 2015-12-29 | EchoPixel, Inc. | Graphical system with enhanced stereopsis |
CN104237791A (zh) * | 2013-06-20 | 2014-12-24 | 电子科技大学 | 一种锂电池荷电状态估算方法及电池管理***和电池*** |
JP6513669B2 (ja) | 2013-08-13 | 2019-05-15 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | 解剖学的アイテムのコンピュータによる視覚化 |
CN105682734B (zh) | 2013-10-31 | 2018-08-17 | 波士顿科学神经调制公司 | 用于并入来自图像的引线信息的*** |
AU2014348865B2 (en) | 2013-11-14 | 2017-06-01 | Boston Scientific Neuromodulation Corporation | Systems, methods, and visualization tools for stimulation and sensing of neural systems with system-level interaction models |
JP2017513662A (ja) | 2014-03-28 | 2017-06-01 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Q3d画像の3d画像とのアライメント |
US9402070B2 (en) * | 2014-06-12 | 2016-07-26 | Faro Technologies, Inc. | Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality |
US10667796B2 (en) | 2014-09-22 | 2020-06-02 | General Electric Company | Method and system for registering a medical image with a graphical model |
JP6382708B2 (ja) * | 2014-12-22 | 2018-08-29 | Kddi株式会社 | 通信端末、表示制御システム及び表示制御方法 |
US9992202B2 (en) * | 2015-02-28 | 2018-06-05 | Aruba Networks, Inc | Access control through dynamic grouping |
CN104850700B (zh) * | 2015-05-20 | 2018-03-09 | 北京控制工程研究所 | 一种协作式可视化仿真平台 |
US9503681B1 (en) | 2015-05-29 | 2016-11-22 | Purdue Research Foundation | Simulated transparent display with augmented reality for remote collaboration |
WO2017066373A1 (en) * | 2015-10-14 | 2017-04-20 | Surgical Theater LLC | Augmented reality surgical navigation |
CN109564471B (zh) | 2016-08-12 | 2022-08-23 | 波士顿科学国际有限公司 | 具有主/次交互特征的分布式交互医学可视化*** |
JP6921940B2 (ja) | 2016-08-12 | 2021-08-18 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | ユーザインタフェース機能を備えた分散型インタラクティブ医療視覚化システム |
-
2017
- 2017-08-08 CN CN201780048904.3A patent/CN109564471B/zh active Active
- 2017-08-08 US US15/671,800 patent/US10592067B2/en active Active
- 2017-08-08 WO PCT/US2017/045925 patent/WO2018031558A1/en unknown
- 2017-08-08 EP EP17757607.1A patent/EP3497544B1/en active Active
- 2017-08-08 JP JP2019506505A patent/JP2019534490A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US10592067B2 (en) | 2020-03-17 |
EP3497544B1 (en) | 2021-09-22 |
EP3497544A1 (en) | 2019-06-19 |
WO2018031558A1 (en) | 2018-02-15 |
CN109564471A (zh) | 2019-04-02 |
US20180046354A1 (en) | 2018-02-15 |
JP2019534490A (ja) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109564471B (zh) | 具有主/次交互特征的分布式交互医学可视化*** | |
EP3497600B1 (en) | Distributed interactive medical visualization system with user interface features | |
JP6101793B2 (ja) | 時空間的不確実性を管理するためのシステム及び方法 | |
Kockro et al. | A collaborative virtual reality environment for neurosurgical planning and training | |
Alaraj et al. | Virtual reality training in neurosurgery: review of current status and future applications | |
CA2694095C (en) | Virtual interactive presence systems and methods | |
US20140176533A1 (en) | System and method for role-switching in multi-reality environments | |
Pinter et al. | SlicerVR for medical intervention training and planning in immersive virtual reality | |
WO2007059477A2 (en) | Virtual patient simulator | |
US20200205905A1 (en) | Distributed interactive medical visualization system with user interface and primary/secondary interaction features | |
JP2007272889A (ja) | 画像処理装置 | |
CN105487653B (zh) | 实现虚拟现实场景的方法及*** | |
CA3152809A1 (en) | Method for analysing medical image data in a virtual multi-user collaboration, a computer program, a user interface and a system | |
Sutherland et al. | Towards an augmented ultrasound guided spinal needle insertion system | |
Watson et al. | Development of stereoscopic-haptic virtual environments | |
Clarke | Depth perception using x-ray visualizations | |
WO2023211838A1 (en) | Systems and methods for facilitating medical procedures with presentation of a 3d point cloud | |
Ballesteros et al. | Technology assembly for education in health with a smartphone-based immersive environment | |
TW202206030A (zh) | 用於四維血管造影之系統及方法 | |
Kim et al. | An interactive virtual operating room | |
Ghandorh | Augmented Reality Simulation Modules for EVD Placement Training and Planning Aids | |
NATEKAR et al. | Affordable Immersive Virtual Reality based pre-surgical planning tool for Neurosurgery | |
Luciano | Open surgery training simulator using haptics and augmented reality technologies | |
dos Santos Machado et al. | TEACHING HUMAN BODY STRUCTURES USING VIRTUAL REALITY |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |